viernes, 9 de julio de 2021

Por qué es importante el dilema de la novia en la inteligencia artificial


FRED TANNEAU AFP


La incorporación de la IA en el sector público puede mejorar la eficacia de la administración pero debe incluir la perspectiva de género para evitar riesgos



La inteligencia artificial no es un sistema puramente tecnológico desde el momento que su diseño lleva asociadas cuestiones sociales y éticas. “Si el objetivo de la IA es simular la inteligencia humana, entonces es imposible reducir los intentos al campo de la ingeniería y la matemática”, señala un informe publicado por las investigadoras Lucía Ortiz de Zárate y Ariana Guevara Gómez, de la Universidad Autónoma de Madrid, titulado Inteligencia artificial e igualdad de género. Un análisis comparado entre UE, Suecia y España, y realizado para la Fundación Alternativas.

Aunque la mayor parte de las organizaciones que hacen uso de tecnologías de inteligencia artificial son las empresas privadas, cada vez más gobiernos apuestan por la implementación de estos sistemas. Son sistemas útiles para elevar la eficiencia o para detectar problemas más rápido de lo que hasta ahora (por ejemplo, diagnósticos médicos, identificar áreas de elevado fracaso escolar o predecir actividades delictivas), así como para personalizar servicios a los ciudadanos.

Se ha demostrado que los datos usados en los sistemas de inteligencia artificial reproducen estereotipos de género que pueden contribuir a la perpetuación de roles asociados tradicionalmente a mujeres y hombres. Los ejemplos son múltiples: chatbots y asistentes de voz con características femeninas, sistemas de reconocimiento facial con sobrerrepresentación de hombres de piel clara, buscadores que asocian la figura femenina a profesiones como recepcionista o ama de casa.

Un caso de imágenes y sesgo es el denominado “problema de la novia”: al analizar ImageNet, una base de datos con más de 14 millones de imágenes, se encontró que una mujer blanca con un vestido blanco se etiqueta como novia, mientras que una mujer del norte de la India con un traje típico de boda se etiqueta como interpretación artística. “Hay que mirar la representatividad de género de los datos con lentes de interseccionalidad”, apunta el estudio. En algunos informes se ha destacado que la poca presencia de mujeres en los equipos de diseño puede contribuir con estas conceptualizaciones.


Recomendaciones

La implementación de sistemas de inteligencia artificial en las administraciones conlleva riesgos, sostienen las autoras. Resulta clave que el sector público tenga mecanismos que eviten amenazas para los ciudadanos como la falta de privacidad, la opacidad algorítmica o los sesgos.

“Todos estos sesgos tienen consecuencias reales”, señaló Lucía Ortiz de Zárate en la presentación del informe. Entre ellos, un aumento de la desigualdad entre grupos ya de por sí discriminados. “Si tenemos en cuenta que una de las ventajas de la inteligencia artificial es su capacidad de procesamiento de datos para la toma decisiones y éstas no tienen en cuenta las necesidades de colectivos concretos, las discriminaciones que de normal se dan en los humanos se pueden ver amplificadas”.

En el caso de España, las investigadoras hacen referencia la Estrategia Nacional de Inteligencia Artificial, que se publicó a finales de 2020. “El enfoque sigue la estela de Europa”, señaló Ariana Guevara. Entre otros, “el liderazgo del sector público como vertebrador de un uso ético de la IA tanto en el sector público como privado”.

Ese enfoque pone énfasis en dos aspectos: el impulso a la formación de talento femenino en áreas científicas, ingenierías y matemáticas, y por otro, el apoyo al liderazgo de las mujeres en empresas tecnológicas, dado que solo el 15% de las start up tecnológicas que se crean en España están encabezadas por mujeres.

El informe ofrece recomendaciones en relación con el género y la inteligencia artificial en el sector público. En primer lugar, proponen la elaboración de guías para la implementar la IA con perspectiva de género. También aconsejan la publicación de un informe anual o bianual que marque cifras y datos concretos. Señalan asimismo el uso de la inteligencia artificial contra la violencia de género (por ejemplo, diseñar chatbots para ayudar a las mujeres que sufren violencia). Proponen sistemas para luchar contra la brecha salarial (favorecer la transparencia retributiva en las empresa), así como el desarrollo de herramientas favorecer la salud de la mujer.



EL CASO SUECO, UN REFERENTE

Estudio. El ejemplo de Suecia es paradigmático porque ha desarrollado iniciativas concretas para usar estas tecnologías disruptivas de una forma proactiva a favor de la igualdad de género En concreto, se centra en estas áreas: la influencia y el poder, la educación, la distribución igualitaria de los cuidados y el trabajo no remunerado, la igualdad económica, la lucha contra la violencia de género, y el acceso y disfrute igualitario a la salud.

Roles. Hay muchos ejemplos de estereotipos asociados a hombres y mujeres en sistemas de inteligencia artificial. Un análisis de word2vec, un sistema entrenado con textos de Google News para asociación de palabras, el término she (ella) se asoció con profesiones como enfermera, ama de casa, recepcionista, bibliotecaria, niñera, estilista. Para he (él) se asoció experto, capitán, filósofo, arquitecto, financiero, guerrero. Los softwares de reconocimiento facial también muestran evidencias del sesgo. Un estudio publicado en 2018 concluyó que para tres programas (Face API de Microsoft, Watson Visual Recognition API de IBM, y Face++), los hombres fueron identificados de forma más precisa que las mujeres. “Se podrían generar consecuencias negativas para la vida diaria de las personas”.

Precariedad. La automatización del trabajo va a afectar de forma más negativa a las mujeres, porque la mayoría de los puestos precarios (los que más afectados se van a ver) son ocupados por ellas.


C.CASTELLÓ
8 JUL 2021 - 12:38 CEST
https://cincodias.elpais.com/cincodias/2021/07/07/companias/1625664719_881283.html