La inteligencia artificial (IA) no tiene género, así lo afirman sus creadores, sus impulsores, sus desarrolladores; sin embargo, especialistas universitarias han observado que tiene un sesgo y sus datos no tienen un perfil inclusivo.
¿Por qué ocurre tal cosa? De acuerdo con un artículo de la Universidad Nacional Autónoma de México (UNAM), la respuesta está en la forma en que la IA es programada por hombres que reproducen orientaciones machistas.
Y también porque la información de la que suele echar mano la IA tiene, históricamente, un marcado componente masculino que discrimina, o al menos relega a la mujer.
El artículo menciona que a pregunta expresa, ChatGPT responde: “La IA no tiene inherentemente género ni ideología. Sin embargo, en su desarrollo e implementación pueden influir cuestiones de género de diversas maneras. Por ejemplo, los sesgos en los conjuntos de datos utilizados para entrenar modelos de IA es posible que perpetúen estereotipos de género o discriminación”.
Por su parte, Saiph Savage, ingeniera en computación por la UNAM y con un doctorado en Ciencias de la Computación por la Universidad de California, Santa Bárbara, recuerda que “la inteligencia artificial busca crear computadoras que puedan empezar a pensar como los seres humanos”.
¿Qué está reflejado ahí de nosotros?
Es una pregunta que plantea la lingüista computacional María Ximena Gutiérrez, parte del programa Macrodatos, Inteligencia Artificial e Internet del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH), el cual busca reflexionar desde las humanidades y la interdisciplina los avances de la IA.
“Lo que está reflejado ahí de nosotros tal vez tiene muchos sesgos, reproduce estereotipos, incluidas cuestiones de género que se consideran machistas. El enfoque predominante de la IA se basa en aprender de una gran cantidad de ejemplos (data-driven). El sistema aprenderá de datos de origen que pueden estar sesgados”, respondió Gutiérrez.
¿ Y cómo aprendió la IA a ser machista y patriarcal?
Este trabajo explica que si partimos de que la IA de aprendizaje metabolizó datos sesgados en cuestiones de género, la IA generativa tomará decisiones replicando aquellos que aprendió de las personas.
En este sentido, Saiph Savage recuerda que la IA “está entrenada para reproducir, pero también puede amplificar”, esto pensado en términos de machismo y violencia de género contra las mujeres.
Ximena Gutiérrez también explica algo importante del proceso: “Estas tecnologías son muy eficientes, pero eso conlleva un costo oculto, el cual se traduce en que a veces esos sistemas de redes neuronales artificiales tan complejos no son transparentes, no te pueden explicar por qué tomaron una decisión, y eso tiene un impacto social”.
No es neutral
Si la IA tuviera que decidir a quién contratar, probablemente elegiría a un candidato varón. Le sucedió a una empresa multinacional especializada en comercio electrónico, streaming digital e inteligencia artificial. Entre 2014 y 2015 descubrieron que sus motores de contratación discriminaban a las mujeres. ¿La razón? Su herramienta de selección, hasta ese momento experimental, trabajaba con un algoritmo que aprendió a valorar los patrones de las hojas curriculares en un tiempo de 10 años, y como el dominio masculino ha predominado en las industrias tecnológicas, una candidata sería discriminada sólo por ser mujer. Esto lo hacía no ser neutral en cuestiones de género.
Según las estadísticas de mujeres en la tecnología 2024 de WomenTech, a principios del milenio en Estados Unidos su representación laboral en la tecnología era del 9 %. Actualmente, ellas constituyen el 35 % de la fuerza laboral.