viernes, 27 de octubre de 2023

Investigadores de EEUU y España crean por 1ª vez una IA que razona como un humano



Imagen de una exposición sobre inteligencia artificial en Barcelona. 
(EFE/Enric Fontcuberta)



Aprender cosas y relacionarlas sobre la marcha con conceptos que ya conocemos es algo que solo los humanos somos capaces de hacer. Dos investigadores aseguran que han conseguido que una IA replique este aprendizaje




Investigadores de la Universidad de Nueva York y de la Universidad Pompeu Fabra (Barcelona) afirman haber creado "por primera vez" una red neuronal artificial capaz de aprender nuevos conceptos y combinarlos con conceptos ya conocidos, de una forma muy similar a como funciona la mente humana. El resultado obtenido, según los científicos, es igual y "en ocasiones mejor" que el razonamiento humano. Este avance, publicado hoy en la revista Nature, pone en entredicho la idea asentada desde hace 35 años de que las redes neuronales no son modelos viables de imitación de la mente humana.

¿Son las máquinas capaces de pensar y razonar igual que los humanos? Esta es la pregunta que los investigadores de IA llevan haciéndose desde hace décadas y que ahora, con el boom de la IA generativa, es más inquietante que nunca. Desde finales de los 80, se había dado por hecho que las redes neuronales, los sistemas que alimentan aplicaciones como ChatGPT, no eran capaces de realizar lo que se conoce como 'generalizaciones compositivas', es decir, conectar nuevos conceptos con otros ya conocidos para aprender.

Esta es justo la forma en la que funciona el cerebro humano. Por ejemplo, una vez un niño aprende a esquivar un obstáculo, el cerebro tarda muy poco en entender cómo esquivar hacia un lado, hacia atrás, o dando un rodeo a ese obstáculo. Es la habilidad humana innata de aprender conectando y evolucionando conceptos ya conocidos. Los sistemas actuales de inteligencia artificial no saben procesar estas sutilezas, pero los investigadores Brendan Lake (Universidad de Nueva York) y el italiano Marco Baroni, profesor en la Pompeu Fabra y en el Instituto Catalán de Investigación y Estudios Avanzados (ICREA), aseguran haber dado con un sistema que es capaz de pensar como nosotros.

La técnica que han desarrollado, conocida como Meta-Aprendizaje Compositivo (MLC, en sus siglas en inglés), se centra en entrenar una red neuronal con ejemplos de comportamiento humano, a la vez que se va actualizando constantemente el sistema para generar aprendizaje. Por ejemplo, los investigadores introdujeron la palabra "saltar" y le pidieron a la red neuronal que usara sus capacidades compositivas para crear nuevas composiciones gramaticales, como "saltar dos veces", "saltar a un lado" o "saltar hacia atrás". La máquina aprende esas relaciones y, acto seguido, recibe una nueva palabra y otra petición de crear palabras relacionadas. Así miles y miles de veces.

"Si a ChatGPT le envías una foto de un perro y le preguntas qué es, lo que hace es comparar esa foto con miles de millones de imágenes parecidas que ha memorizado y concluye que sí, es un perro. Es un entrenamiento basado en inyectar cantidades ingentes de datos y que el sistema los memorice. Nuestro método se basa en entrenar la red para solucionar problemas más abstractos", explica Marco Baroni en conversación con El Confidencial. "Por ejemplo, si inventamos la palabra dax y la asociamos al color "amarillo", y la palabra wiz a "dos veces", el sistema tiene que resolver que daxwiz equivale a "amarillo-amarillo". Repitiendo este ejercicio miles de veces hemos demostrado que la red neuronal, en lugar de memorizar, entiende las reglas abstractas que asocian las palabras a conceptos".

Para comprobar su efectividad, Lake y Baroni compararon sus resultados con experimentos llevados a cabo con personas a las que se les pedía aprender el significado de diversas palabras y generalizarlo para llevar a cabo instrucciones más complejas. Los resultados fueron sorprendentes. Las personas fueron capaces de realizar una generalización correcta en el 80% de los casos, mientras que la IA lo lograba en entre el 90 y el 92% de los casos.

"Quizás lo más interesante es que también podemos entrenar la red neuronal para que los errores sean mucho más humanos. Cuando ChatGPT y otras IA generativas alucinan y se equivocan, los errores que producen son muy extraños, no es algo que diría una persona. Con este sistema de entrenamiento, digamos que la IA también se equivoca como si fuera una persona", explica Baroni.

Otros académicos que ya han tenido acceso a la investigación califican el trabajo de "ingenioso". "He tenido la oportunidad de echar un vistazo al código con el que han implementado la red neuronal, y usan PyTorch [desarrollado por Meta]. Desde el punto de vista técnico, me parece impecable", señala Teodoro Calonge, profesor titular del departamento de informática en la Universidad de Valladolid. "Sin embargo, no sabría decir si es una línea de investigación que vaya a ofrecer grandes avances a corto o medio plazo. Desde luego, no creo que vaya a dar respuesta a los interrogantes que actualmente se plantean en el campo de la explicabilidad de la inteligencia artificial, es decir, de entender y documentar cómo la IA obtiene sus predicciones y resultados".


"Lo que hemos podido demostrar es que nuestra red neuronal resuelve problemas nuevos sobre la marcha, problemas que no había visto antes. Eso OpenAI aún no lo ha logrado"


Sam Altam, creador de OpenAI, lleva tiempo avisando que el siguiente paso de ChatGPT será inyectar valores humanos en la IA. ¿Cómo? Aún es un misterio. ¿Puede una IA de verdad entender, comprender y razonar como lo hacemos los humanos, o en realidad se están volviendo cada vez mejores en engañarnos para que pensemos que razonan como humanos? ¿Cuál es la diferencia entre engañar y razonar de verdad si no podemos distinguir ambas situaciones?

Baroni se ríe. No tiene respuesta. "Es una cuestión filosófica. ¿Cómo sabes tú si yo he entendido algo? ¿Cómo podemos saberlo de una IA? Lo que nosotros sí hemos demostrado es que nuestra red neuronal es capaz de resolver problemas nuevos sobre la marcha, problemas que no había visto antes durante el entrenamiento. Es la diferencia entre memorizar la solución a un problema matemático, y entender los conceptos para dar con la respuesta sobre la marcha. OpenAI aún no ha logrado esto último".



www.elconfidencial.com/tecnologia/2023-10-25/inteligencia-artificial-humanos-pompeu-fabra-razonar-pensar_3761184/