La inteligencia artificial está en el centro de un debate sobre sus sesgos de género. Expertas de la UNAM explican por qué la IA puede reproducir estereotipos machistas y cómo podemos contrarrestar esta tendencia.
La inteligencia artificial (IA) ha sido promovida como una tecnología neutral, libre de género. Sin embargo, al profundizar en su funcionamiento y los datos que la alimentan, surge una inquietante realidad: la IA puede perpetuar y amplificar los sesgos machistas presentes en la sociedad. Esto no es un accidente, sino el resultado de cómo se programan estos sistemas y la naturaleza de los datos utilizados, esto de acuerdo con Saiph Savage, ingeniera en computación por la UNAM y con un doctorado en Ciencias de la Computación por la Universidad de California.
Los desarrolladores de IA, predominantemente hombres, a menudo sin darse cuenta, incorporan sus propios prejuicios en los algoritmos. Saiph Savage, señala que la IA se entrena con millones de datos que reflejan las actitudes y patrones de comportamiento humanos. "La inteligencia artificial aprende de la información disponible y, si estos datos tienen sesgos de género, la IA los replicará y amplificará", explica Savage.
Lee también: Lanzan primer concurso de belleza con modelos generadas con ayuda de IA
María Ximena Gutiérrez, lingüista computacional del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH), enfatiza que la IA no solo refleja nuestros sesgos, sino que la perpetua. "El enfoque predominante de la IA es aprender de una gran cantidad de ejemplos, y si esos ejemplos son sesgados, el sistema replicará esos prejuicios", comenta Gutiérrez. Esta falta de transparencia en los sistemas de IA puede tener un impacto social significativo.
Un claro ejemplo de estos sesgos ocurrió en una multinacional de comercio electrónico, donde un algoritmo de contratación discriminaba a las mujeres. El sistema, al valorar los currículums basándose en patrones históricos dominados por hombres, tendía a preferir candidatos varones. Este caso ilustra cómo los sesgos históricos en los datos pueden traducirse en discriminación directa a través de la IA.
Para abordar estos problemas, es crucial que los datos utilizados para entrenar sistemas de IA sean representativos e inclusivos. Ximena Gutiérrez destaca la necesidad de formar grupos interdisciplinarios que trabajen en la representatividad de los datos. "También podemos apoyarnos en la minería de datos para identificar y corregir sesgos", sugiere.
Lee también: ¿Cuál es la edad perfecta para encontrar el amor, según IA?
Aimée Vega, especialista en feminismo y comunicación del CEIICH, subraya que la tecnología es un dispositivo de poder que opera en un marco de desigualdad de género. "La IA puede contribuir a la feminización de la pobreza y la precarización de las mujeres en el mercado laboral", advierte Vega. Además, las mujeres son vulnerables a la violencia digital, como la generación de imágenes deep fake que las cosifican.
Hacia una IA responsable
La UNAM está trabajando en un curso de IA centrado en el ser humano, que aborda los sesgos desde el inicio del desarrollo de los sistemas. Savage resalta la importancia de involucrar a personas en el proceso de toma de decisiones de la IA para corregir errores y sesgos. "Diseños participativos pueden ayudar a crear una IA más inclusiva y justa", concluye.
La inclusión y la representación equitativa en el desarrollo de tecnologías de IA son pasos fundamentales para asegurar que estas herramientas beneficien a toda la sociedad por igual.
También te interesará:
El Temach defiende a Christian Nodal y explota contra sus ex: “lo agarran de su puerquito"
¿Quién es José Perez, nuevo regidor de Metepec y actor que dio vida a "Ludoviquito P. Luche"?
Mes del orgullo LGBT: ¿Por qué se celebra en junio y qué representa?
Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.
aov/aosr