viernes, 22 de febrero de 2019

Estas personas no existen

Caras falsas generadas por la IA de ThisPersonDoesNotExist.com



Una web usa la inteligencia artificial para generar infinitas fotos de caras



Cada vez que se refresca la web ThisPersonDoesNotExist.com (Esta persona no existe) se muestra una cara generada por ordenador desde cero, sin usar a ningún modelo real. ¿Sabrías decir cuál de las siguientes imágenes es una de estas caras falsas y cuál es una fotografía de la agencia Getty?
Si no ves bien el test, pincha aquí.
La web es obra de Phillip Wang, ingeniero de Uber, que en un post de Facebook explica que se basa en el trabajo de un grupo de investigadores de la empresa tecnológica Nvidia publicado en diciembre. Esta compañía compartió su sistema, ofreciendo también modelos para crear gatos, coches y dormitorios completamente generados por inteligencia artificial. Otros han usado este método para crear personajes de anime, fuentes e incluso grafitis, en lo que podría ser una herramienta útil para para diseñadores e ilustradores (aunque también podría dejar sin empleo a los modelos de fotos de stock).
La tecnología utilizada no es nueva: el sistema usa las llamadas redes neuronales, que imitan las conexiones de las neuronas del cerebro y que aprenden gracias a una amplia base de datos con ejemplos.
Como explica a Verne Jesús García, responsable del Grupo de Inteligencia Artificial Aplicada de la Universidad Carlos III de Madrid, las redes neuronales se han usado en la generación de música y textos, como en el caso del programa que ha completado la sinfonía inacabada de Schubert. “Tienen una muy buena capacidad de generalización -añade-. A partir de grandes conjuntos de datos pueden llevar a cabo con precisión las tareas encomendadas”.
En el caso de las caras falsas, la tarea se ha desarrollado con una red generativa antagónica. En este método, una red neuronal genera las caras inventadas y otra las compara con las originales. Cuando este segundo sistema es incapaz de saber cuál de las dos imágenes es falsa, se asume que los humanos tampoco serán capaces de encontrar la diferencia.
¿Es buena idea que un ordenador sepa tanto de caras?
La inteligencia artificial aplicada a las imágenes tiene muchas aplicaciones, entre las que García destaca la de identificar y clasificar objetos que aparecen en vídeos y fotografías, por ejemplo. Aunque a veces cometen errores graves, como le ocurrió a Photos, de Google, que etiquetaba a personas negras como “gorilas”. La solución de Google fue dejar de etiquetar a los gorilas en todas las fotos, lo que está relacionado con otra desventaja de estos sistemas: funcionan casi como cajas negras. Es decir, los investigadores no pueden explicar por qué el algoritmo toma cada una de sus decisiones.
Lorena Fernández, directora de identidad digital en la Universidad de Deusto, advierte de otros riesgos que tiene esta tecnología. Los mundos virtuales creados de cero pueden usarse para engañarnos, como muestran los deep fakes.Ya no se trata de un titular falso o un rumor compartido en redes sociales: en el futuro podríamos tener que desmentir vídeos, como este de Obama, realizado por Buzzfeed a modo de ejemplo. Fernández también alerta de su uso en pornografía: las caras se sustituyen por las de actrices famosas que no han rodado esas escenas.
Fernández cita otros usos peligrosos de la inteligencia, como iBorderCtrl, que está en fase de pruebas y que propone aplicar el reconocimiento facial a viajeros que entren en la Unión Europea para detectar si esta persona miente. Fernández recuerda que los programas de reconocimiento facial no tienen solo una tasa de error elevada, sino que además “presentan sesgos de género y raza. Es decir, se equivocan más con mujeres y con personas que no son blancas”.
Como apuntaba un estudio del MIT, la causa es que estas personas están infrarrepresentadas en las bases de datos que se usan para entrenar a los programas. Encontramos un ejemplo en el programa que probó Amazon hasta 2017 para seleccionar currículums de candidatos a puestos de trabajo en la empresa: el sistema descartaba a las mujeres porque se basaba en los perfiles de los candidatos de años anteriores, que eran mayoritariamente hombres.
Algo más que una cara falsa
Según explicaba en su post de Facebook, Wang quiere que su web generador de caras falsas nos ayude a reflexionar sobre las posibilidades de la inteligencia artificial. Fernández coincide en que estas acciones “son herramientas muy interesantes para formar e informar a la ciudadanía”. Es decir, para ser conscientes de todo lo que hay detrás de la tecnología y que seamos más cautos, por ejemplo, a la hora de creernos cualquier imagen que nos llega por redes o de meter en casa un asistente virtual como Alexa o Google Home, que graba conversaciones y recoge datos de nosotros para seguir aprendiendo.
Es cierto que la tecnología aún no es perfecta: por ejemplo, en algunas de las imágenes se pueden apreciar los errores que aún comete la inteligencia artificial. El artista digital Kyle McDonald advertía en un texto publicado en Medium de los más frecuentes en el caso de las imágenes: las caras son asimétricas (a veces incluso falta un pendiente, por ejemplo), los fondos no están logrados, y los dientes y el pelo a menudo se ven raros.
Imágenes generadas en ThisPersonDoesNotExist.com y no tan realistas como otras

Además, estos programas pueden desarrollar tareas concretas, pero aún estamos muy lejos de una inteligencia artificial general, semejante a la de los humanos, como recuerda Jesús García. Eso sí, el profesor de la Universidad Carlos III añade que “la tecnología seguirá mejorando, a medida que los programas puedan acceder a más datos y optimizar los parámetros. Nos va a seguir sorprendiendo”. Aunque a veces sea para mal.

https://verne.elpais.com/verne/2019/02/19/articulo/1550574972_072800.html

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.