Opinión
Sesgos ideológicos en la Inteligencia Artificial

En el feminismo hay una máxima que es que lo que no se nombre no existe y por ello el fuerte trabajo de las activistas respecto a un lenguaje en el que se mencionen los términos que así apliquen en femenino. Y diversos ejercicios con la inteligencia artificial han demostrado que esta cae dentro de esos sesgos ideológicos que van en temáticas si de género, pero también de raza o de otros elementos socio políticos que no están dentro del pensamiento hegemónico normado por la occidentalización y la heteronormatividad.
Estamos encontrando prejuicios sistemáticos en los resultados generados por la IA, esto puede afectar en la recolección de datos, formulación de algoritmos, pero es sobre todo muy visible a la hora de solicitarle la elaboración de imágenes. Existen varios problemas aledaños a estos sesgos, pero principalmente desde este análisis nos centramos en la perpetuación de estereotipos y la falta de equidad.
Un caso claro de esto, fue el ejercicio del el artista y activista chileno Felipe Rivas San Martín, quien creo una serie fotográfica de parejas homosexuales y lesbianas latinoamericanas de principios del siglo XX en su obra Un Archivo Inexistente. Al crear estas imágenes haciendo uso de una inteligencia artificial Stable Diffusion, se encontró con que está lograba generar fotografías con apariencia antigua, pero no representaban a las y los trabajadores de la región, como esperaba el artista, la tecnología destacaba personajes de piel clara, cabello rubio y vestimenta que no correspondía al imaginario que este buscaba.
Por ello, el activista chileno debió afinar las instrucciones en cuanto a nacionalidad, ocupación, entorno y otros elementos sobre los países latinoamericanos. Esto demuestra los sesgos de clase y raza de estas IA puesto que las bases de imágenes con las que fueron entrenadas no responden a los fenotipos de esta región.
Otro caso, es lo que activistas feministas han denunciado que al solicitarle a la IA la creación de la imagen de una persona exitosa, o de una persona profesionista de la salud, o dirigente una nación, entre otros ejemplos, en todos los casos se presenta una imagen masculina.
Aunque parte de estos sesgos recae sobre el entrenamiento inicial de la inteligencia artificial, también nos deja ver que los archivos y documentos que están disponibles en la red contienen estas brechas de género, edad, clase, raza entre otros elementos, es decir la IA absorbe los prejuicios que socialmente están silenciosamente incrustados en los datos con los que se entrenan.
Por lo tanto, parte de la reducción de estos sesgos, recae directamente en los programadores, pero como usuarios de estas tecnologías, también podemos entrenarlas y darle información al respecto para mejorar su entendimiento y generación sin estos prejuicios y estereotipos.