Una investigación liderada por la Universitat Oberta de Catalunya (UOC) y con participación de investigadoras e investigadores de la Universitat de València (UV), la Universitat Politècnica de València (UPV) y la Universidad Politécnica de Cataluña (UPC), entre otros centros plantea medidas para eliminar los sesgos de género en los algoritmos de Internet. Entre otros, que las personas involucradas en crear un algoritmo conozcan las medidas que se pueden tomar para minimizar los posibles sesgos y las aplican. La investigación ha sido publicada en la revista Algorithms.
Sobre si los algoritmos de Internet presentan un sesgo de género se han escrito ríos de tinta. Un nuevo estudio intenta llegar a una conclusión sobre la pregunta, dado que consideran que hasta ahora, el debate ha estado alejado de un análisis científico.
“En este artículo se aborda el sesgo de género desde la perspectiva matemática y también desde una sociológica. Mi perspectiva es que debe haber una interdisciplinariedad en esta materia. El género es un concepto social y, por tanto, los algoritmos deben tratarse no sólo desde la perspectiva de las Matemáticas, sino también desde la Sociología”, destaca Assumpta Jover, firmante del artículo, doctora en Estudios de Género por la Universitat de València y Máster de Género y Políticas de Igualdad con mención en la especialidad en Investigación y Análisis de Políticas de Igualdad del Instituto Universitario de Estudios de la Mujer.
Las múltiples fuentes de sesgo de género, así como las particularidades de cada clase de algoritmo y conjunto de datos, hacen que eliminar esta desviación sea un desafío particularmente difícil, pero no imposible. “Es necesario que los diseñadores y todas las personas involucradas en su desarrollo estén informadas sobre la posibilidad de tener sesgos asociados a la lógica de un algoritmo. Además, deben conocer las medidas que existen para minimizar al máximo los posibles sesgos y aplicarlas para que no se produzcan, porque, si son conscientes de las discriminaciones que acontecen en la sociedad, sabrán identificar cuándo sus desarrollos las reproducen”, propone la investigadora principal, Juliana Castañeda Jiménez, estudiante de doctorado industrial de la Universitat Oberta de Catalunya (UOC), bajo la dirección de Ángel A. Juan, de la Universitat Politècnica de València, y Javier Panadero, de la Universitat Politècnica de Catalunya.
La novedad de este trabajo radica en que ha sido promovido por especialistas en diferentes áreas, en las que existe, entre otras, una socióloga, un antropólogo y expertas en género o estadística. “Los miembros del equipo completaron una perspectiva que va más allá de la matemática autónoma asociada al algoritmo y, así, pudimos considerar el algoritmo como un sistema sociotécnico complejo”, describe la investigadora principal del estudio.
Los algoritmos se emplean cada vez más para decidir si se concede o deniega un préstamo o aceptar solicitudes. A medida que aumenta el número de aplicaciones de inteligencia artificial (IA), así como sus capacidades y relevancia, es más importante evaluar los posibles prejuicios adheridos a estas operaciones. “Si bien éste no es un concepto nuevo, hay muchos casos en los que este problema no se estudia, por lo que se ignoran sus posibles consecuencias”, afirman responsables de la investigación, enfocada principalmente al sesgo de género en diferentes campos de la IA.
Estos prejuicios pueden tener grandes impactos en la sociedad: “Los sesgos afectan a todas las personas que estén discriminadas o excluidas o asociadas a un estereotipo. Por ejemplo, podrían excluir a un género o a una raza de un proceso de decisión o, simplemente, asumir un comportamiento determinado por el género o el color de la piel”, explica Juliana Castañeda.
Según Castañeda, “es posible que los procesos algorítmicos discriminen por género, incluso cuando están programados para ser ciegos a esta variable”. El equipo investigador –en el que, además, participan Milagros Sáinz y Sergi Yanes, del grupo de Género y TIC (GenTIC) del Internet Interdisciplinary Institute (IN3), Laura Calvet, de la Escuela Universitaria Salesiana de Sarrià, así como Ángel A. Juan– lo expone con varios ejemplos: el caso de una conocida herramienta de contratación que prefería a los candidatos masculinos a los femeninos, o el de servicios de crédito con condiciones menos ventajosas para las mujeres que para los hombres. “Si se utilizan datos históricos y no están equilibrados, probablemente se observará un condicionamiento negativo relacionado con demografía negra, gay e incluso femenina, dependiendo de cuándo y de dónde son estos datos”, indica Castañeda.
Ellos, ciencias y ellas, artes
Para saber el grado de afectación por estos patrones que experimentan los distintos algoritmos a los que nos enfrentamos, los investigadores analizaron trabajos anteriores que identificaban sesgos de género en procesamientos de datos en cuatro tipos de IA: la que describe aplicaciones en procesamiento y generación de lenguaje natural, la encargada de la gestión de decisiones, y la de reconocimiento facial y de voz.
En general, encontraron que todos los algoritmos identifican y clasifican mejor a los hombres blancos. Además, observaron que reproducían creencias falsas sobre cómo deberían ser los atributos físicos que definen a las personas según su sexo biológico, origen étnico o cultural, u orientación sexual, y que, asimismo, asociaban de forma estereotipada la masculinidad y la feminidad con las ciencias y las artes, respectivamente.
Muchos de los procedimientos empleados en aplicaciones de reconocimiento de imagen o voz también se basan en estos estereotipos: al igual que las cámaras reconocen mejor las caras blancas, el análisis de audio tiene problemas con las voces más agudas, lo que afecta principalmente a las mujeres.
Los casos más susceptibles de presentar estos defectos son los algoritmos que se construyen a partir del análisis de datos reales que llevan asociado un contexto social. “Algunas de las causas principales son la infrarrepresentación de las mujeres en el diseño y desarrollo de productos y servicios de IA y el uso de conjuntos de datos con sesgos de género”, señala la investigadora, que cree que el problema está relacionado con los entornos culturales en los que son desarrollados.