miércoles, 3 de febrero de 2021

Visión y tecnología - Fernanda Viégas: “La justicia del algoritmo no puede depender solo de un ingeniero

 

Fernanda Viégas lidera la división de Google dedicada a idear y explicar cómo hacer que las máquinas tomen mejores decisiones


La diseñadora gráfica brasileña lidera la división de Google dedicada a idear y explicar cómo hacer que las máquinas tomen mejores decisiones



Si los algoritmos hablaran, todo sería más fácil. Nos avisarían de que están tomando decisiones por los motivos equivocados. “Este resultado tiene en cuenta el género”, dirían. O, cuando han sido mal entrenados: “Los datos en los que me baso no son representativos”. Pero por más expectativas que pongamos sobre los hombros de estas fórmulas que Cathy O’Neil describió como “opiniones encerradas en matemáticas”, la tarea de evitar que vayamos por el mal camino sigue siendo de los humanos.

Fernanda Viégas no ha logrado que los algoritmos hablen. Pero casi. Lidera People + AI Research (PAIR), la división de Google dedicada a preservar las buenas formas entre la inteligencia artificial y los humanos que lidian con ella, a través de visualizaciones de datos y manuales como su People+AI Guidebook. “No somos la policía. Pero estamos muy interesados en grandes objetivos, como lograr que el aprendizaje automático sea justo, mediante pasos concretos. Construimos herramientas que pueden usarse internamente en Google y luego las abrimos al resto del mundo”, afirma.

SOBRE LA INCERTIDUMBRE

La carrera de Viégas empezó muy lejos de Google, geográfica y académicamente. A las puertas de la universidad, solo sabía que no sabía cuál era su vocación. Esto en Brasil era un problema. “Cuando estás decidiendo qué estudiar tienes que hacer exámenes específicos para cada universidad y también para cada titulación. Así que, si cambias de idea, tienes que dejarlo y volver a presentarte”, explica. Tres veces lo intentó. Probó suerte con Ingeniería Química, Literatura y Magisterio. Y tres veces decidió dar marcha atrás.

Entonces descubrió que en Estados Unidos podía seguir avanzando pese a su indecisión y probar diferentes itinerarios antes de decidir con cuál quedarse. “Definitivamente soy el tipo de persona que necesita cambiar de idea”, admite. Su siguiente hallazgo fue el Diseño Gráfico. “Jamás había oído hablar de las visualizaciones de datos”, asegura. Se decantó por esta carrera y añadió a la mezcla un segundo título de Historia del Arte.

El puente entre esas dos disciplinas y la tecnología lo tendió en el MIT. “Me hablaron del MediaLab, un lugar que recibe a gente de diferentes perfiles y les plantea distintas maneras de abordar la tecnología”, recuerda la investigadora, que acabó haciendo un máster y un doctorado centrados en visualización de datos. “Creo que hoy en día es muy poderosa la habilidad de pivotar entre diferentes campos y conectar puntos que no estaban relacionados antes. La mayoría de mis compañeros no tiene formación en diseño gráfico y esto significa que aporto ideas diferentes. Me hago preguntas que nadie a mi alrededor se está planteando”, razona.

¿Ser forastero en una disciplina es la receta del éxito? “Qué va. Cada uno tiene su propio camino. Tengo compañeros maravillosos que siempre se han dedicado a las ciencias de la computación. He aprendido muchísimo de personas increíblemente expertas en campos muy específicos. Lo que necesitamos es diversidad”.

Su manera de dar voz a los sistemas de aprendizaje automático es crear una ventana que permita al ojo experto y al profano ver lo que está pasando ahí dentro. PAIR hace gráficos que muestran la forma en que los modelos de aprendizaje incurren en la filtración de datos, que revelan dónde se esconden los posibles sesgos y que ayudan a que los algoritmos tomen decisiones más justas.

LENGUAJE DE LAS MÁQUINAS

Atención, spoiler: no hay una receta universal para frenar la injusticia y siempre se renuncia a algo. “Los ingenieros deberían ser conscientes de esto, pero también necesitamos que más partes interesadas ayuden a decidir a qué se renuncia. Lo justo tiene diferentes aspectos en función del contexto, los países, las situaciones. No debería haber una sola persona decidiendo esto, no puede ser solo el ingeniero”, añade Viégas.

La experta diseña sus proyectos como si los fuera a ver cualquiera. En su mente están presentes el estudiante que quiere saber más sobre esta tecnología, el médico que no quiere confiar a ciegas en un sistema que no entiende y el ingeniero que necesita comprender cómo sus líneas de código pueden cambiar la vida de otras personas. “Necesitamos que más gente entienda cómo funciona el aprendizaje automático y cuáles son sus limitaciones, de manera que se sientan autorizados a hacer preguntas críticas”.

Sin embargo, el debate sobre estos sistemas no puede ampliarse mientras la lengua franca sea la de los ingenieros. “Muchos de estos métodos tienden a ser muy técnicos”, señala. Por ejemplo, un sistema de clasificación de imágenes podría determinar que lo que está viendo es una cebra al tomar en cuenta la ubicación y concentración de ciertos píxeles. “Ese no es el modo en que piensan los humanos. Es el modo en que piensan los ordenadores”, añade. En este contexto, la labor de PAIR es traducir las reflexiones de la máquina en explicaciones comprensibles para el común de los mortales.

“Una investigadora de nuestro equipo creó una técnica que permite expresar qué conceptos son los importantes y consultarlos con la máquina”, precisa Viégas. En el ejemplo de la cebra, este sistema nos permitiría olvidarnos de los píxeles y preguntar cómo de importantes han sido las rayas en esa decisión. En el caso real de un clasificador de imágenes de tejidos tumorales, permitió a los médicos asegurarse de que el sistema está teniendo en cuenta los rasgos correctos. “Probaban la herramienta para intentar entenderla, para calibrar su confianza en ella. La belleza de esto es que de pronto das a un médico la habilidad de expresarse y dialogar con el sistema”.

Herramientas como esta arrojan algo de luz en un escenario donde encomendarnos a los modelos de aprendizaje automático —para que decidan si somos empleables, si nos conceden un crédito, si nos interesa ver lo último de Marvel— es un compromiso que tomamos a ciegas. “No hay una regla general para calibrar esa confianza, depende del sistema, del contexto o del nivel de riesgo, entre otros”, comenta Viégas.

ALGORITMOS MÁS FIABLES

 En el caso de los médicos, creer o no en los resultados que ofrece un clasificador de tumores es simple y llanamente una cuestión de vida o muerte. “En ocasiones estos sistemas se vuelven tan precisos como los especialistas o más. No estoy diciendo que los médicos deban aceptar a ciegas lo que dice la máquina. Pero descartarlo por completo es un perjuicio al paciente. Y, al mismo tiempo, no queremos que el doctor se fíe demasiado del sistema”.

El equilibrio, según la investigadora, reside en que la decisión del profesional se base en su conocimiento de cómo piensa la herramienta y cuáles son sus límites. “Necesitan más transparencia para hacer mejor su trabajo”, concluye.

Una vez más, el meollo está en que todos podamos ver las tripas de estas tecnologías. “Los ingenieros son los que están ajustando las clavijas, pero ni siquiera ellos quieren ser los que tomen las decisiones porque se dan cuenta de la responsabilidad que entraña”, dice la experta. Su propuesta alternativa es hacer que esas clavijas estén al alcance de más gente, de manera que todos podamos debatir y decidir cómo ajustarlas.

¿Hay tiempo para buscar consenso en un sector donde reinan las prisas? Según Viégas, no nos queda más remedio. “Necesitamos pasar por este proceso complejo y engorroso. A menos que estemos dispuestos a dejar que una persona tome todas las decisiones, que no lo creo, necesitamos más diálogos de este tipo”. Su promesa es que con el tiempo emergerán patrones aplicables a situaciones con riesgos similares. “Pero no vamos a arreglar nada si no nos sentamos a hablar”.

¿Hay riesgo de que esas recomendaciones caigan en saco roto? Sí y no. “Parte del salto necesario es que se entienda que esto es alcanzable”, sentencia. ¿Y para quienes ven estas iniciativas como un esfuerzo de marketing? “Hay mucho trabajo duro y muchos equipos reflexionando profundamente sobre esto, al menos en Google. Además, estamos viendo programas de ciencias de la computación de diferentes universidades integrar la ética en sus currículos. Esto es super importante, los ingenieros necesitan aprender que pueden hacerse estas preguntas mientras construyen los sistemas. No hay que esperar al último momento”.



Por
https://retina.elpais.com/retina/2021/02/01/tendencias/1612187210_136952.html