Meta es una de las multinacionales que invierten miles de millones en algo que no va a tener impacto real en la economía, según una eminencia del MIT.
(Reuters/Dado Ruvic)
El reputado profesor del MIT Daron Acemoglu no es un catastrofista de la IA, pero su análisis apunta a que estamos malgastando billones de euros. Sus tres futuros escenarios van de mal a peor
El famoso economista y profesor en el Massachusetts Institute of Technology Daron Acemoglu lo tiene claro: la inteligencia artificial no será la fuerza transformadora de la economía por la que casi todo el mundo está apostando billones que, según él, van a quemarse sin remedio en una hoguera de las vanidades. Acemoglu, una de las voces económicas más influyentes en el análisis de los efectos de la inteligencia artificial en la economía, no guardó ni una bala en una reciente entrevista con Bloomberg: “No soy pesimista respecto a la IA,” asegura, aclarando que comprende el potencial de la tecnología, pero las expectativas en torno a la IA son enormemente exageradas y están conduciendo a una burbuja de inversión y decisiones que tendrá consecuencias económicas desastrosas para todos.
Según él, solo el 5% de todos los trabajos podrán ser automatizados o mejorados por la IA en los próximos diez años, lo que supone una enorme brecha entre lo que se promete y lo que es factible. “Mucho dinero va a ser desperdiciado", advierte Acemoglu. Las inversiones masivas no generarán los beneficios esperados y esto conducirá a un nuevo estallido de una burbuja como pasó con las ‘puntocom’ a principios de los 2000.
Las empresas y los inversores inyectan enormes cantidades de dinero en la IA con la esperanza de que revolucione la productividad, afirma, pero la realidad será muy diferente. “No vas a obtener una revolución económica de ese 5%,” asegura.
Tres escenarios económicos posibles…
En su análisis, Acemoglu plantea tres posibles escenarios para el futuro de la IA. El primero, y más optimista, dice que el entusiasmo por la tecnología puede enfriarse gradualmente, dando paso a usos más moderados y específicos de la IA.
Sólo el 5% de todos los trabajos podrán ser automatizados o mejorados por la IA en los próximos diez años
El segundo escenario contempla un auge continuado de la inversión durante uno o dos años más, seguido por un colapso en el mercado tecnológico, una especie de "primavera de la IA seguida de un invierno de la IA".
Por último, el tercer escenario, que es el más alarmante, describe una situación en la que las empresas continúan invirtiendo sin una estrategia clara, lo que podría llevar a despidos masivos cuando la IA no cumpla con las expectativas. Habría consecuencias negativas para toda la economía, afirma.
…y alarmas serias sobre su impacto en la civilización
Mientras Acemoglu se centra en las repercusiones económicas de la inteligencia artificial, otros expertos apuntan a un fin apocalíptico de esta película. Yoshua Bengio, uno de los pioneros en la invención y uso de las redes neuronales, advierte sobre los graves riesgos inherentes al desarrollo descontrolado de la IA. Durante una entrevista con LiveScience, Bengio señaló que los avances actuales de la IA podrían llevar a consecuencias catastróficas si no se regulan de manera adecuada. Bengio advierte que “las personas siempre dicen que estos riesgos son ciencia ficción, pero no lo son". Los peligros potenciales de los sistemas de IA avanzados sí superan el control humano.
Para Bengio, la IA ya está siendo utilizada de forma tóxica y peligrosa en la campaña electoral en los Estados Unidos. La situación, dice, empeorará a medida que la tecnología se vuelva más y más sofisticada. Un reciente estudio, apunta, demostró que ChatGPT-4 es más persuasivo que los humanos a la hora de convencer a una persona de algo. "El nuevo modelo solo va a empeorar este problema," alerta Bengio.
El astrofísico de Harvard Avi Loeb tiene una visión similar e igualmente preocupante, según me contó en una entrevista por videoconferencia. Loeb advirtió sobre los peligros de entrenar IA sin tener en cuenta la calidad de los datos, algo a lo que también apunta Bengio. Loeb compara este proceso con alimentar a un niño con comida basura, una metáfora que usa para describir cómo las grandes cantidades de datos sin filtro pueden deteriorar el potencial de la IA y generar efectos negativos a largo plazo en la ‘mente’ de la IA. “Esto es equivalente a exponer a un adolescente a todo lo que encuentras en revistas y periódicos,” me dice. La IA entrenada con datos de baja calidad, tomados de todas las fuentes posibles, desde ‘tuits’ llenos de odio, datos falsos, y visiones políticas y éticas extremistas, reflejarán y amplificarán comportamientos humanos perjudiciales que nos llevarán a un desastre seguro. Si tenemos un curriculum en los colegios y los padres limitan el acceso a información nociva a los niños, ¿por qué estamos haciendo lo contrario con el cerebro del niño AI?
Una advertencia final
Es necesario ser mucho más selectivo con la información utilizada en el entrenamiento de los modelos de IA e incluso crear información desde cero para reflejar una visión optimista y beneficiosa del futuro que queremos para la humanidad.
Si lo hacemos así, Loeb cree que la IA podría ser una herramienta clave para la civilización. "Cuando pienso en la próxima fase de la humanidad, será en el espacio,” me dice. Nos quedan unos 1.500 millones de años en la Tierra antes de que la temperatura del Sol evapore los océanos. La IA puede ayudarnos a encontrar soluciones para nuestro futuro cercano y lejano, resolver nuestros problemas, y convertirse en nuestro emisario a las estrellas, incluso construyendo vida como la teoría de las sondas von Neumann. Sin embargo, advierte que esta tecnología debe desarrollarse con extrema precaución, estableciendo límites, como se hizo en su momento con la energía nuclear. “En el laboratorio puedes desarrollar tecnologías, pero una vez que entiendes cómo crear una bomba atómica, necesitas limitaciones,” dice Loeb.
La IA es la nueva energía nuclear y tanto Bengio como Loeb coinciden en un punto crucial: sin un control y una regulación adecuados, los riesgos de la IA superan sus beneficios. Como Loeb me dijo al final de nuestro encuentro virtual: “Lo que hagamos ahora, no el próximo año, ni dentro de cinco años, será crucial para nuestro futuro”.