viernes, 18 de febrero de 2022

Los 'deepfake' son ya tan perfectos que los científicos exigen su prohibición

Un Tom Cruise falso se hizo viral en Tik Tok. (Chris Ume)



Un nuevo estudio asegura que los rostros creados por las inteligencias artificiales ya no son solo indistinguibles de los reales sino que también generan más confianza entre la gente



Según un nuevo estudio: “los rostros generados sintéticamente no sólo son fotorrealistas, sino que son casi indistinguibles de los reales y se consideran más fiables”. Los investigadores detrás de este trabajo advierten que este tipo de tecnologías tipo ‘Deepfake’ han llegado a un punto de realismo que las hace extremadamente peligrosas —pueden generar imágenes que propaguen la desinformación o actividades como el fraude y las extorsiones— y piden que cese por completo su desarrollo.

Cuando vemos la imagen de Messi o Mbappé en un videojuego sentimos que, aunque cada vez están más logradas, hay algo que no acaba de cuadrar del todo. Ni su mirada ni las muecas de sus rostros son realistas. Esa sensación se conoce entre los creadores gráficos como el ‘valle inquietante’ y es el límite entre creer que un personaje es de carne y hueso o simplemente un humanoide hecho en 3D que da un poco de grima.

Las nuevas generaciones de gráficos generados por inteligencia artificial han roto esa barrera y han llegado a traspasar ese ‘valle inquietante’, aseguran los investigadores del nuevo estudio. Además con la tecnología actual se puede crear fácilmente una foto o un vídeo gracioso de Tom Cruise haciendo magia con una moneda o una imagen tuya, no tan graciosa, en la que apareces masturbándote aunque en realidad no seas tú, y que los delicuentes utilizan para extorsionarte amenazando con hacerlo público si no pagas lo que te piden.


Cómo se hizo el estudio

Para ver hasta qué punto es fácil engañarnos, los investigadores enseñaron a un grupo de personas imágenes de rostros reales y digitales. Para crear los rostros digitales usaron dos redes neuronales adversariales. Una red generadora fue la responsable de crear una serie de rostros sintéticos desde los primeros bocetos hasta las imágenes finales. Mientras que la otra red, conocida como discriminadora, se entrenó viendo imágenes reales y luego calificó los resultados generados por la red generadora comparándolos con los rostros reales.


El tridente del PSG no ha superado el 'valle inquietante'. (EA Sports)


Para este ejercicio utilizaron rostros de hombres y mujeres de raza negra, asiática y caucásica, y llegaron a recopilar 400 imágenes reales y 400 digitales.

Luego seleccionaron tres grupos de personas para llevar a cabo su experimento. El primero contó con 315 personas que tenían que distinguir entre 128 imágenes cuáles eran reales y cuáles digitales. El segundo grupo, de 219 participantes, recibió formación y soporte por parte de los investigadores para detectar las imágenes falsas. Y el último grupo, de 223 participantes, tenía que valorar en una escala de uno (muy poco fiable) a siete (muy fiable) una selección de 128 imágenes.


Jesús Díaz

Los investigadores comprobaron que el primer grupo obtuvo una media del 48,2% de aciertos al distinguir entre las imágenes verdaderas y las falsas, un porcentaje similar al que hubieran conseguido si hubieran contestado al azar. El segundo grupo, que contó con ayuda de los investigadores, obtuvo solo un 59% de acierto. Y el tercero, el que evaluó la confianza que le generaban los rostros, dio una puntuación media de 4,82 a los rostros sintéticos por encima de los 4,48 que obtuvieron los reales.

"No estamos diciendo que todas las imágenes generadas sean indistinguibles de un rostro real, pero un número significativo de ellas lo son", asegura Sophie Nightingale, profesora de psicología en la Universidad de Lancaster, en el Reino Unido, y coautora del estudio publicado en la revista Proceedings of the National Academy of Sciences, de EE.UU.


Rostros tan perfectos que son un peligro

En las conclusiones de su estudio los investigadores alertan del peligro que suponen estas tecnologías capaces de colarnos imágenes falsas como verdaderas. "Cualquiera puede crear contenidos sintéticos sin necesidad de tener conocimientos especializados de Photoshop o gráficos generados por ordenador", afirma Nightingale.


 
 Declaraciones falsas de políticos se pueden confundir con reales. (Youtube)


Aunque el video está todavía por detrás de las imágenes fijas en cuanto a calidad, los resultados obtenidos por los investigagores también son una prueba más de que es necesaria la creación de herramientas que sean capaces de detectar y avisar cuándo una imagen ha sido generada por ordenador. Meta, la antigua Facebook, anunció este verano que ya tiene un software para la detección de videos ‘fake’ aunque no sabemos si ha empezado a implementarlo para analizar el contenido publicado en sus plataformas.

Aun así el avance exponencial de esta tecnología es imparable y cada vez será más complicado de detectar. Un estudio publicado por un grupo de investigadores internacionales hace unos días hace referencia a los distintos métodos que se pueden implementar para el análisis forense de los medios digitales.


Omar Kardoudi


Además del control que pueden establecer las plataformas, como Facebook, el estudio habla de insertar marcas de agua en los dispositivos que crean estos ‘fakes’ o del uso de ‘blockchain’ para que cada imágen tenga una firma única que se puede rastrear. De todas maneras, los investigadores admiten que mucha de esta tecnología está todavía en fase de desarrollo y está lejos de ser una realidad.

En eso parecen estar de acuerdo la doctora Nightingale y su equipo que en las conclusiones de su estudio aseguran: “en este momento crucial, y al igual que han hecho otros campos de la ciencia y la ingeniería, animamos a la comunidad de gráficos y visión a desarrollar directrices para la creación y distribución de tecnologías de medios sintéticos que incorporen pautas éticas para investigadores, editores y distribuidores de medios”. Y van todavía más allá: “animamos a quienes desarrollan estas tecnologías a considerar si los riesgos asociados son mayores que sus beneficios. Si es así, desaconsejamos que se desarrolle esta tecnología”.




Por
Omar Kardoudi
17/02/2022 - 05:00 Actualizado: 17/02/2022 - 16:52
Los 'deepfake' son ya tan perfectos que los científicos exigen su prohibición (elconfidencial.com)
www.elconfidencial.com/tecnologia/novaceno/2022-02-17/cientificos-deepfake-peligrosos-piden-parar-desarrollo_3377002/