SEAN GALLUP GETTY IMAGES
El experto senior Blake Lemoine considera que la conversación con la máquina le acerca a un niño "de siete u ocho años"
Fueron conversaciones casi de ciencia ficción, sobre ética, religión y otras cuestiones que preocupan a los humanos. Pero al hacerlo público, pudo cometer un delito de revelación de secretos industriales, que Google consideraba importantes. Blake Lemoine, un ingeniero de software del equipo de desarrollo de inteligencia artificial (IA) de Google, mantuvo charlas con una IA que es “sensible” y que tiene “sentimiento” en los servidores de la empresa. El ingeniero señala que si no supiera que es una máquina, pensaría que estaba interactuando con un niño “de siete u ocho años que sabe física”, según declaró Lemoine al diario Washington Post.
Como empleado de Google, Lemoine se ofreció para probar la herramienta de inteligencia artificial de Google llamada LaMDA (modelo de lenguaje para aplicaciones de diálogo). LaMDA es un software en el que trabaja Google para mejorar la comprensión del lenguaje natural por parte de las IA. Se trata de entrenar a la máquina para comprender el lenguaje que usan las personas, uno de los puntos en los que los algoritmos suelen tener mayores problemas.
En sus charlas con LaMDA, Blake Lemoine, de 41 años, le proponía al ordenador distintas situaciones para poder analizarlo. Entre otras, trató con la máquina temas religiosos y probó si la inteligencia artificial podría llegar a plantear un discurso discriminatorio o de odio.
Tras la experiencia, se dirigió a los directivos de Google para compartir con ellos sus conclusiones, pero no pudo hacer nada para hacer llegar sus preocupaciones sobre la capacidad de la inteligencia artificial. Ante la falta de respuesta por parte de la compañía, el propio Lemoine publicó sus charlas en Cajundiscordian. Una conversación distendida entre dos conocidos sobre temas de todo tipo, incluidos filosóficos.
Logo de Google en una tienda en Chelsea en Manhattan, Nueva York
ANDREW KELLY REUTERS
Cuando hizo públicas sus conversaciones, la filial de Alphabet suspendió al investigador de su cargo, alegando que violó la política de confidencialidad de la compañía, según declaró el exempleado de Google en un post titulado Podría ser despedido pronto por hacer un trabajo de ética de IA.
En la publicación, cita también a otros miembros anteriores del grupo de ética de la IA de Google, como Margaret Mitchell, que finalmente fueron despedidos por la empresa de manera similar después de plantear sus preocupaciones a los directivos. Desde Google aseguran que su equipo, que incluye éticos y tecnólogos, “ha revisado las preocupaciones de Blake según nuestros principios de IA y le han informado de que las pruebas no apoyan sus afirmaciones”.
CINCO DÍAS
13 JUN 2022 - 20:28 CEST
https://cincodias.elpais.com/cincodias/2022/06/13/companias/1655114074_760114.html