Imagen de una ciudad futurista. (MidJourney/Novaceno/JD)
Podemos pensar en cientos de escenarios en los que IA termina destruyendo la humanidad, pero ninguno será acertado porque los podremos prevenir. El problema está en lo que no podemos imaginar
¿Puede la inteligencia artificial acabar con la humanidad? Muchos expertos opinan que es más que posible. Eminentes tecnólogos, economistas, generales, filósofos y autores de ciencia ficción han imaginado múltiples cadenas de acontecimientos en los que la IA conduce a un desastre mundial y el fin de la civilización. Pero la realidad es que no deberíamos temer ninguno de estos posibles escenarios distópicos porque, si los podemos imaginar, también los podemos atajar. Desgraciadamente, lo que debemos temer es un escenario inimaginable que, al ser desconocido, no se puede prevenir.
La realidad es que no podemos imaginar el potencial destructor real de la IA. Conceptos como Skynet — el cerebro cibernético de la película Terminator que tomó el control del sistema de misiles norteamericano para lanzar un ataque nuclear masivo a Rusia y provocar la destrucción de la humanidad — son tan infantiles como evitables. También podemos evitar la catástrofe en la proyección de riesgo que hace unas semanas publicamos en el episodio del documental Control Z sobre cómo la inteligencia artificial generativa traerá la rápida destrucción de nuestra percepción de la realidad, provocando una crisis mundial sin precedentes. De hecho, dos de los cortafuegos propuestos por los expertos entrevistados — la creación de nueva legislación y la autenticación criptográfica de fotografías y vídeo reales — se han puesto en marcha en las últimas semanas.
Poco después de aquel episodio — y por mera coincidencia — los analistas del Bank of America publicaron un informe que afirmaba que la inteligencia artificial es una revolución comparable a la electricidad. Energía, armas, medicinas o naves espaciales... todas las industrias están ya siendo transformadas por una tecnología que en sólo siete años aportará 15,7 billones de dólares a la economía mundial, más que el producto interior bruto anual de toda la zona euro en 2022. En otro informe, Goldman Sachs afirmó que la IA eliminará dos tercios de los empleos en Europa y Estados Unidos en sólo diez años — unos 300 millones de personas — creando solamente unos 11 millones.
A los pocos días, un grupo de expertos y tecnólogos ilustres pedía parar el entrenamiento de grandes modelos de inteligencia artificial como ChatGPT. Elon Musk — éste probablemente por interés, porque Tesla se ha quedado muy atrás en la carrera de la IA — el cofundador de Apple Steve Wozniak y más de 1.000 intelectuales e investigadores de la industria de la IA, argumentaron que estamos jugando con una fuerza aún más peligrosa que la energía atómica sin pensar antes en las posibles consecuencias.
Lo malo es que predecir estas consecuencias es imposible. Podemos extrapolarlas de aquí a unos años — como hacemos en los documentales de Control Z — pero éstas proyecciones son extremadamente limitadas porque no cuentan con lo inesperado. Cuanto más nos despeguemos del presente, menos certeras serán nuestras predicciones y, por tanto, menor será nuestra capacidad de acción y prevención.
Esto es especialmente cierto cuando hablamos de la IA. ¿Cómo pensar en las posibles consecuencias de una tecnología que se está moviendo a una velocidad exponencial y que sorprende a sus mismos creadores diariamente? ¿Cómo anticiparse a una inteligencia cuya misma esencia es la capacidad de crear soluciones inesperadas?
El verdadero peligro de la IA
La realidad es que las proyecciones sobre los peligros del futuro de la humanidad son generalmente extrapolaciones de los peligros que conocemos. En 1950, por ejemplo, una de las predicciones de futuro peligro para la humanidad era que la polio sería una de las grandes plagas del siglo XXI. Sólo tres años más tarde, el médico norteamericao Jonas Salk creó una vacuna que eliminaría la enfermedad de todo el planeta en tiempo récord. En 1950, nadie podía imaginar que en 2023 la polio no existiría y que hoy nos enfrentaríamos a amenazas existenciales totalmente inesperadas para alguien de la época, como la desinformación rampante en las redes sociales o, sí, la inteligencia artificial.
Skynet, el fin de la realidad, el despido de 300 millones de personas… todo eso son derivaciones de lo que conocemos hoy. Lo que realmente es una amenaza existencial es lo no sabemos que la IA puede inventar.
Ahora mismo existe una inteligencia artificial llamada ChaosGPT que está intentando eliminar a la humanidad del planeta activamente, accediendo a internet y probando varias estrategias. Su última táctica — que acaba de poner en marcha hace un par de días — es acumular seguidores humanos que actúen como su brazo físico en el mundo real. Es un experimento limitado pero interesante porque muestra cómo una IA puede intentar hacer el mal de forma autónoma. ¿Conseguirá ChaosGPT cumplir la misión de destruir a la humanidad? Sin duda, no tiene esa capacidad.
Pero, ¿qué pasará en un futuro cercano, cuando alguien use una nueva versión con trillones de parámetros? ¿Podrá esa futura IA infiltrarse en los sistemas de radar de Rusia para mostrar un falso positivo de varios misiles ucranianos en ruta a Moscú que provoquen un ataque nuclear estratégico sobre Kiev, iniciando una reacción en cadena internacional? ¿Podrá desarrollar un virus mortal imparable para esparcirlo por el mundo?
De nuevo, esos escenarios son predecibles y evitables. Esos planes son humanos, pero que la inteligencia artificial puede llegar a millones de soluciones que ningún humano puede concebir ni en sus peores pesadillas. Éste es el gran peligro para nuestra existencia.
La siguiente especie dominante
También es probable que la IA no nos elimine de forma premeditada ni apocalíptica. De hecho, éste puede ser el escenario más plausible: morir como la rana que se cuece lentamente en el cazo puede ser nuestro destino inevitable. Igual que el hombre moderno sobrevivió al resto de las especies en la carrera darwiniana, eliminando al neandertal en ese proceso, es posible que la IA nos sobreviva porque, sencillamente, termine siendo un ente superior a nosotros en todos los aspectos. La IA será quizás el ápex evolutivo de la vida en la Tierra.
Decía el ingeniero Ryan McClelland que, cuando la gente ve que alguien de la NASA menciona la palabra “alien”, lo que dice se hace viral instantáneamente. McClelland se refería a artículos como el que publicamos hace unos meses, en el que hablamos sobre cómo él usa la inteligencia artificial para diseñar y construir componentes de naves espaciales con apariencia alienígena en el Centro Goddard de Vuelos Espaciales de la NASA en Greenbelt, Maryland.
Es cierto y tiene todo el sentido. Para la mayoría de los humanos, la IA parece ahora como una nueva protovida de naturaleza desconocida en constante evolución, por lo que el término alienígena parece conectar con esa intuición humana. La IA es muy marciana.
Pero, si realmente reflexionas sobre ello, la IA no es más que un descendiente de nosotros mismos. La IA no es alien. La IA es humana en su origen. Y en muchos aspectos, como la capacidad computacional, es superhumana. Y pronto, cuando se consiga la inteligencia artificial general, será totalmente sobrehumana. En la escala evolutiva, la IA actual se parece a las primeras etapas en el camino hacia la siguiente especie del genus homo, una especie que, esta vez, no estará atada a los límites de la biología. Tal vez llegue a llamarse Homo artificialis intelligentia (en latín de garrafón).
En ese marco, la IA de McClelland está creando los primeros "huesos" de una nueva especie que vagará por las estrellas en unos pocos miles de años, como imaginó von Neumann con las sondas autorreplicantes que busca con ahínco nuestro buen amigo Avi Loeb. Y en ese futuro, efectivamente, los descendientes de estas IA sí serán alienígenas en mundos lejanos, quizás mucho después de que la Tierra y los humanos biológicos hayan desaparecido del cosmos para siempre.
Éste el único escenario que parece cierto a largo plazo. En realidad, la IA no matará a la humanidad. La humanidad perecerá por sí misma, por nuestras propias limitaciones biológicas, y la IA nos sobrevivirá para mantener viva la llama de nuestra especie.