martes, 24 de mayo de 2022

El polémico avance de Google que enzarza a los científicos: ¿se puede crear un cerebro artificial?


El proyecto Waterfall of Meaning, de Google, durante una exposición en Londres. (Getty/Tristan Fewings)



DeepMind, propiedad de la tecnológica, ha presentado una red neuronal que promete tener la misma capacidad que la humana. Hay quien duda del proyecto, pero también quien dice que es el avance definitivo. ¿Es así?



Hablar con una persona. Jugar a videojuegos. Poner subtítulos a imágenes. Dirigir un brazo robótico. Y así con otras 600 tareas más simultáneamente. Es de lo que es capaz Gato, el cerebro artificial que trata de replicar el funcionamiento del de los humanos —lo que se conoce como inteligencia artificial general— y que ha desarrollado DeepMind, una 'startup' de Google. Una de las claves del hallazgo es que no necesita que los programadores lo entrenen para aprender a hacer cada cosa por separado, ya que todo tiene lugar en una única red neuronal, algo que no suele ocurrir con estas tecnologías. Por ejemplo, el algoritmo que te recomienda contenidos en Netflix y el que escribe sinopsis de películas operan de forma aislada. Sin embargo, este invento también comete fallos que no se pueden pasar por alto, como la falta de coherencia cuando mantiene una conversación con una persona o los errores al responder preguntas bastante sencillas, como cuál es la capital de un país.

"En los últimos nueve o 10 años, el aprendizaje automático o 'machine learning' ha dado varios pasos de gigante con resultados sorprendentes, y Gato es el último de estos hallazgos", explica a este periódico Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos de la Universidad Nacional de Educación a Distancia (UNED). "La novedad es que la misma red neuronal pueda realizar tareas tan distintas", incide este profesor e investigador, que considera que "el diseño y entrenamiento de Gato no parece revolucionario", aunque sí "demuestra las capacidades de aprendizaje multitarea de un modo que no se había intentado antes". Entonces, ¿dónde está la polémica? Pues en que mientras que algunos lo consideran un avance definitivo, otros lo ven poca cosa, y eso no ha sentado nada bien en DeepMind.

El 'gato' que se fue de la lengua


Uno de los primeros en señalar las costuras de Gato fue Mike Cook, del grupo de investigación Knives & Paintbrushes. "Es un buen trabajo, pero no me parece un paso importante en el camino hacia nada", ha explicado en 'TechCrunch', destacando que "podría parecer que es capaz de preparar una taza de té o aprender fácilmente otras 10 o 50 tareas, y no es así". Matthew Guzdial, profesor de ingeniería informática en la Universidad de Alberta (Canadá), ha apuntado en la misma dirección: "Se está exagerando un poco".

Según DeepMind, Gato es mejor que los humanos "la mayoría de las veces" en 450 de las 604 tareas para las que está capacitado. Guzdial considera que, aunque tenga ciertas ventajas, un modelo de esta magnitud no es el mejor método a seguir, pues implica analizar una cantidad ingente de información de todo tipo. Es decir, desde textos de Wikipedia o bancos de imágenes hasta las instrucciones para manejar una videoconsola Atari o un brazo robótico. Para él, es "más útil" que haya redes neuronales pequeñas que se centren en llevar a cabo una actividad concreta a la perfección.

placeholderDemis Hassabis, cofundador de DeepMind. (EFE/Wu Hong)
Demis Hassabis, cofundador de DeepMind. (EFE/Wu Hong)

Algunos medios especializados también han cuestionado determinados aspectos del invento. “La capacidad de Gato para realizar múltiples tareas se parece más a una consola que puede almacenar 600 juegos diferentes que a un juego al que puedes jugar de 600 maneras diferentes”, han explicado en 'The Next Web'. Si bien reconocen que es un avance "notable" que "probablemente hará que la empresa gane mucho dinero", también inciden en que eso no tiene nada que ver con alcanzar algo parecido al pensamiento humano.

Ese texto ha sido la gota que ha colmado el vaso. Nando de Freitas, profesor de la Universidad de Oxford y uno de los investigadores de DeepMind, ha respondido al artículo a través de su cuenta de Twitter, pero viniéndose un poco arriba. "¡Ahora todo es cuestión de escala! ¡El juego ha terminado! Se trata de hacer que estos modelos sean más grandes, más seguros, más eficientes en el cálculo, más rápidos en el muestreo, más memoria, más modalidades...", argumenta. "La resolución de estos problemas de escalado es lo que hará posible la inteligencia artificial general". Unas declaraciones que han hecho que se pase de matices y dudas razonables a comentarios más duros por parte de los investigadores de esta rama.



"No importa que solo haya sido un tuit"

"Si no se hubieran hecho estos comentarios, Gato no habría recibido tantas críticas", cuenta el catedrático Gonzalo que, parafraseando al físico Richard Feynman, recuerda que "la religión es la cultura de la fe, y la ciencia es la cultura de la duda". "Si un científico, por valiosa que sea su aportación, deja de dudar por un instante, el resto de sus colegas se van a abalanzar sobre él sin piedad. No importa que solamente se haya extralimitado en un tuit y no en un artículo científico", apostilla.

Gary Marcus, uno de los referentes en esta materia, ha dedicado un artículo en 'Substack' a las palabras de Freitas. En él, rechaza que Gato tenga algo que ver con la inteligencia artificial general, si no con lo que llama 'alt intelligence', que "utiliza cantidades masivas de datos, a menudo derivados del comportamiento humano, como sustituto de la inteligencia".



"De Freitas sabe muy bien que no se pueden hacer los modelos más grandes y esperar a que tengan éxito. Últimamente, la gente ha hecho muchas escalas y ha logrado algunos grandes éxitos, aunque también se ha topado con algunos bloqueos", le afea a su compañero de gremio. Así, Marcus admite que Gato es capaz de hacer tareas "nunca vistas en inteligencia artificial, pero sigue estancada en la falta de fiabilidad, con momentos de brillantez unidos a otros de absoluta incomprensión". Si bien es cierto que los humanos también tienen fallos, este especialista recuerda que no son comparables: "Si alguno de mis hijos cometiera habitualmente errores como estos, dejaría todo lo que estoy haciendo y lo llevaría al neurólogo".


De la Torre Eiffel a la Luna

Gonzalo, de la UNED, aclara que "la polémica va más allá de este caso concreto". "Hay una corriente que parece confiar en que todos los problemas se pueden acabar resolviendo únicamente a base de aumentar el tamaño de las redes neuronales artificiales y de los datos con los que aprenden, además de optimizar los procesos de entrenamiento", desarrolla el especialista, que lo ve como un planteamiento "desmesuradamente optimista, pero hay que reconocer que está permitiendo hacer progresos asombrosos a velocidades de vértigo".

Todo este culebrón deja una pregunta en el aire: ¿cuándo veremos un cerebro artificial que funcione como el humano? Para este catedrático, "todavía estamos muy lejos" de algo así, que llegará "cuando sean capaces de reproducir tanto el pensamiento racional como el intuitivo". Por ahora, la investigación se ha centrado en este último, "de ahí que tenga los mismos sesgos que los humanos cuando actuamos sin responder a criterios racionales".

Ahora el problema es esa otra parte, el raciocinio, una cuestión que no parece estar ni siquiera a la vista. Gonzalo lo ilustra con una metáfora de lo más esclarecedora: "Si hasta 2013 la investigación en inteligencia artificial había conseguido subirse a un árbol, ahora ha logrado llegar hasta lo alto de la Torre Eiffel. La cuestión es que alcanzar la inteligencia artificial general supondría llegar hasta la Luna".




Por
23/05/2022 - 05:00
www.elconfidencial.com/tecnologia/2022-05-23/google-deepmind-cerebro-inteligencia-artificial_3427940/