El ChatGPT de google ha sido capaz de aprender a traducir un idioma por su cuenta.
(Reuters/Dado Ruvic)
Los creadores de Bard, el ChatGPT de Google, no pueden entender como su modelo de lenguaje ha sido capaz de ‘aprender’ bengalí, el idioma oficial de Bangladés, por su cuenta
James Manyika, vicepresidente senior de tecnología y sociedad de Google, confesó en una reciente entrevista para el programa 60 Minutes de la CBS que uno de sus sistemas de inteligencia artificial aprendió por su cuenta y sin haber sido entrenada para ello el bengalí, el idioma oficial de Bangladesh.
Manyika afirma que descubrieron sorprendidos cómo con muy pocas instrucciones escritas en bengalí, Bard era capaz de aprender todo el idioma por su cuenta y ahora tiene la habilidad de traducirlo. Esto, dice, ha llevado a la compañía a investigar cómo aplicar esta habilidad a la traducción de los miles de idiomas que existen.
Cómo lo hace es un misterio
Los modelos de lenguaje como ChatGPT o Bard, la versión de este ‘chatbot’ creado por Google, utilizan algoritmos de aprendizaje profundo, un método de inteligencia artificial que enseña a los ordenadores a procesar datos de manera similar a cómo lo hacemos los humanos y comprender el lenguaje con el que nos comunicamos. Sin embargo, una vez programados estos sistemas, lo que sucede dentro de ese cerebro digital es un misterio que ni siquiera sus creadores pueden comprender.
"Hay un aspecto de esto que todos los que trabajamos en este campo llamamos 'caja negra'. Es algo que no entiendes del todo", asegura en la misma entrevista Sundar Pichai, director general de Google.
Ante esta afirmación, Scott Pelley, el veterano periodista de la CBS al frente de la entrevista, le replicó que no comprendía cómo se puede lanzar una tecnología al público que no se sabe del todo cómo funciona. “Permíteme ponerlo de esta manera: tampoco creo que entendamos del todo cómo funciona la mente humana”.
A pesar de que históricamente Google, y el propio Pichai, han tendido a presionar a los políticos europeos para suavizar las pretensiones legislativas de los miembros de la Unión, el impacto que las nuevas aplicaciones como Bard parece haberle hecho cambiar de opinión, aunque sea de cara a la galería. A la pregunta de si la sociedad está preparada para la tecnología como esta, Pichai respondió: "creo que no, porque si comparamos el ritmo al que podemos pensar y adaptarnos como instituciones sociales con el ritmo al que evoluciona la tecnología, parece que hay un desajuste."
Sin embargo, el director general de Google es optimista y piensa que a diferencia de lo que pasó con otras tecnologías del pasado, la brutal irrupción de la IA y el miedo a sus potenciales efectos ha hecho que muchas personas hayan alzado la voz de alarma antes que en otras ocasiones.
Prisas por regular la IA
Hace apenas unos días más de 1.300 personas —entre los que se encuentran Elon Musk, fundador de Tesla y SpaceX, Steve Wozniak, fundador de Apple o el historiador Yuval Noah Harari— se unían para firmar una carta abierta que pide ralentizar el desarrollo e implementación de esta IA para gestionar y controlar adecuadamente los "profundos riesgos para la sociedad y la humanidad" que suponen. Y ahora, gobiernos de todo el mundo están empezando a tomar medidas para limitarlas.
Google también ha lanzado un documento donde esbozan sus recomendaciones para regular la IA. Aunque es importante aportar soluciones, Pichai cree que "no le corresponde a una empresa decidirlo". En el desarrollo de estas regulaciones deben participar no solo ingenieros, sino también científicos sociales, éticos, filósofos, etc.".
El director general de Google advierte de la importancia de la regulación para que la sociedad pueda adaptarse rápidamente a los cambios que vienen. Pichai habla de leyes para castigar el abuso y tratados entre naciones para que la IA sea segura para todo el mundo, así como normas que "se alineen con los valores humanos, incluida la moralidad".
La Unión Europea ya se ha puesto en marcha y está trabajando en una Ley sobre Inteligencia Artificial. Italia ya ha prohibido el acceso a ChatGPT en su país y otros miembros del bloque como Irlanda o Alemania están estudiando posibles violaciones de OpenAI al Reglamento general de protección de datos (RGPD) de la UE. Otros, como Suecia, no tienen previsto abrir investigaciones, por lo menos hasta que los usuarios presenten quejas contra esta tecnología. Y España, a través de su Agencia de Protección de Datos, anunció recientemente que investigará de oficio a OpenIA en colaboración con otros socios europeos.
Sin embargo, no todo el mundo cree que la prohibición sea la mejor solución. El Ministro de Transporte e Infraestructuras Digitales de Alemania, Volker Wissing, ha declarado recientemente que "no necesitamos una prohibición de las aplicaciones de IA, sino formas de garantizar valores como la democracia y la transparencia". A su vez, Jean-Noël Barrot, Ministro de Transición Digital y Telecomunicaciones francés, ha comentado en declaraciones para La Tribune que el plan de su país es dominar esta tecnología y desarrollar modelos que defiendan los valores franceses.
www.elconfidencial.com/tecnologia/novaceno/2023-04-18/inteligencia-artificial-google-bard-chatgpt_3612786/