Helena Matute, catedrática de Psicología en la Universidad de Deusto. (Cedida)
La carta que pide paralizar temporalmente proyectos como ChatGPT ha contado con adhesiones como Musk o Woznkiak, pero también con la de varios científicos españoles que han dado la voz de alarma
La inteligencia artificial tiene que tirar del freno de emergencia. Es lo que defienden distintas personalidades del mundo tecnológico, como Elon Musk, fundador de Tesla o SpaceX, o Steve Wozniak, cofundador de Apple, que se han adherido a una carta de la fundación Future of Life. En ella, se pide paralizar todos los grandes experimentos relacionados con la IA, como ChatGPT, durante al menos seis meses, un tiempo en el que esperan que haya una regulación y, sobre todo, cierto control sobre su funcionamiento. Entre los firmantes, también hay distintos investigadores y personalidades españolas, que se han sumado a la voz de alarma de unas herramientas que dan pasos de gigante prácticamente cada semana.
"Hay que dar unos tiempos para que estos desarrollos se asimilen y se aseguren unos mínimos. Por ahora, es una carrera muy destructiva", apunta Helena Matute, catedrática de Psicología Experimental en la Universidad de Deusto que lleva años investigando sobre inteligencia artificial. "En cuanto me mandaron la carta, no dudé ni un segundo. Es una tecnología que ya se nos ha ido de las manos, y es algo de lo que venimos tiempo avisando", continúa esta profesora, que añade que "o se regula muy bien o hay que frenarlo". "Ya ha habido tecnologías que han tenido moratorias, como la energía nuclear. Cuando algo es peligroso, hay que parar", recuerda.
Juan Antonio Fernández Madrigal, catedrático de ingeniería de sistemas y automática en la Universidad de Málaga, es otro de los firmantes. "Hay que hacer ver a la mayor cantidad de gente posible, sobre todo quienes tienen algún poder legislador, de los problemas que puede producir ya por la velocidad a la que está cambiando todo", comenta este profesor, que suele trabajar en el campo de la robótica. "Estamos viendo demasiadas novedades demasiado rápido como para que esté tranquilo. Si todo está dirigido al máximo beneficio, no parece que no vaya a haber efectos perniciosos", expone.
Ambos catedráticos celebran que algunos de los grandes nombres relacionados con la IA se hayan sumado a dar la voz de alarma. "Sin ellos, era muy difícil que tuviera alcance, así que me parece fenomenal", comenta Matute, mientras que Fernández Madrigal muestra sus reservas sobre que se vaya a producir la pausa que pide la carta abierta. "No sé si se va a conseguir, pero que muchos llamemos la atención puede ser útil para tomar alguna acción".
En este sentido, cabe recordar que, además de Wozniak o Musk –quien, por cierto, fue también fundador de OpenAI–, el texto también lo firman distintos científicos de renombre internacional en el ámbito de la inteligencia artificial. Son los casos de Yoshua Bengio, Premio Turing y profesor de la universidad de Montreal, o Stuart Rusell, docente en la Universidad de Berkley y coautor de Inteligencia Artificial: Un enfoque moderno, publicado originalmente en 1995 y obra de referencia para los investigadores de este campo.
"¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los más gratificantes? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?", reza la carta abierta, donde también se recalca que "estas decisiones no deben delegarse en líderes tecnológicos no elegidos". "Mucha calma en el ojo de huracán", ha sido, por ahora, la única respuesta de Sam Altman, el CEO de OpenAI.
El gran problema: las cajas negras
Uno de los aspectos que señalan los firmantes de la carta abierta es lo que se conoce como cajas negras. Es decir, el funcionamiento interno de los distintos modelos de inteligencia artificial. Esto se debe a que los investigadores suelen programar cómo la herramienta analiza cantidades ingentes de datos pero, una vez comienza a entrenarse, la forma en la que logran obtener resultados deja demasiadas incógnitas.
"Ni sus creadores pueden predecir qué comportamiento va a tener su modelo en unas horas. No tienen capacidad para ello. Entonces, ¿cómo pueden soltar estas máquinas a escala mundial en una carrera para ver quién explota antes?", se pregunta Matute, que hace hincapié en que "no se queda con lo que has programado, porque sigue aprendiendo por su cuenta".
Hace unas semanas, la propia OpenAI comentaba que "en algún momento, puede ser importante contar con revisiones independientes antes de empezar a entrenar futuros sistemas". La carta les ha dado respuesta: "Estamos de acuerdo, el momento es ahora".
Fernández Madrigal, por su parte, subraya que la operativa de herramientas como ChatGPT "se conocen desde hace tiempo y no ha habido una revolución en términos científicos, pero sí en la cantidad de recursos con las que trabajan, además de que han ajustado mucho mejor los parámetros". Es precisamente este punto el que hace que ve que pueden tener usos beneficiosos, pero en los que falta aún bastante camino por recorrer, como el caso de los buscadores.
"Ahí tiene un potencial impresionante, porque puedes usar lenguaje natural para hacer búsquedas, con frases complejas y reconoce el patrón, pero se equivoca en resultados por ahora", dice este catedrático, que extrapola la cuestión. "¿Quién tiene la responsabilidad si el resultado es malo y provoca efectos perniciosos en la sociedad? ¿Quién asume la autoría de todo eso? Hay alguien que proporciona esos datos y que los explota con patrones de forma compleja. ¿Dónde está la propiedad intelectual?".
Los problemas sociales de la IA
Sin embargo, más allá de las cuestiones técnicas, los firmantes en la carta de Future Of Life también advierten de los peligros derivados de estas imperfecciones. "El peligro no es solo la herramienta, sino su relación con las personas y cómo nos afecta", apunta Matute, que enfatiza que "dominan el lenguaje hasta el punto de hablar como si tuviera consciencia, aunque no la tengan".
"Cuando no se puede predecir qué hacen o dice, la influencia en la sociedad es bestial", avisa esta catedrática de Psicología, que destaca el papel que pueden tener estas herramientas para cuestiones como la desinformación. "Todavía no están pulidas, cometen muchísimos errores, pero dan la sensación de que lo hacen bien y, por eso, se les hace tanto caso. Solo te das cuenta de los errores si conoces muy buen la cuestión y, para el resto, es tan convincente que no se revisa si es verdad. Así están colando muchas falsedades", desarrolla.
Uno de los principales riesgos está en la creación de imágenes con herramientas como Midjourney, que ha llegado a un punto de perfección que ha dejado muy pocas formas de distinguir las imágenes reales de las artificiales. "El daño puede ser enorme, porque es terrible que podamos llegar a un escenario en el que todo el mundo piense que ya no se puede creer nada de lo que ve", lamenta. "La democracia es el mayor riesgo, porque lo veo muy frágil, con una tecnología que dominan cuatro magnates que pueden acumular mucho más poder de forma sencilla".
Por otro lado, también están sobre la mesa las cuestiones laborales, que aún nadie tiene claro cómo se van a resolver. "Hay tantísimos ámbitos que los cambios sociales que puede producir ya no son anecdóticos. Por ejemplo, veo un gran problema en ciertos trabajos de ilustración, porque en muchos casos no requieren una calidad y creatividad excesiva: a los clientes les vale con que sea aceptable", dice Fernández Madrigal, que sugiere que es una cuestión que se amplía a otras profesionales, como escritores, traductores o profesores.
"En Francia estamos viendo revueltas por jubilación. Imagina lo que puede hacer si miles de personas ven afectados sus puestos de trabajo en cuestión de semanas", deja caer antes de zanjar: "Al final, no es una cuestión de que esté bien o mal o de que la IA acabe siendo inteligente, sino de que la sociedad no tiene tiempo de adaptar sus estructuras".
www.elconfidencial.com/tecnologia/2023-03-31/investigadores-espanoles-riesgos-inteligencia-artificial_3602809/