jueves, 8 de junio de 2023

ChatGPT, dime, ¿cuánto contaminas?

 

DANY SCHMALZ (GETTY IMAGES/ISTOCKPHOTO)


El impacto medioambiental, relegado en la carrera por liderar la inteligencia artificial. Preocupa el gasto energético y de agua de los centros de datos


Para entrenar un modelo de lenguaje como ChatGPT se requieren miles de GPU [unidades de procesamiento de gráficos] y una gran cantidad de datos, lo que a su vez aumenta su impacto ambiental. Estas emisiones pueden tener consecuencias significativas para el cambio climático y la calidad del aire”. Así de sincero se muestra el chatbot de inteligencia artificial cuando se le pregunta sobre su propia contaminación.

Y es que no solo preocupa hasta dónde puede llegar ChatGPT en su carrera frenética por mejorar a los humanos y sus repercusiones éticas, también inquietan las emisiones que lleva aparejadas su desarrollo, y mucho. Ya en 2017 Greenpeace calculaba el consumo de energía de las tecnologías de la información en el 7% de los recursos globales, un porcentaje que estimaban iría a más. Un año más tarde, en 2018, un estudio de la propia OpenAI, madre de las diferentes versiones de ChatGPT, apuntaba que la cantidad de potencia informática necesaria para ejecutar grandes modelos de inteligencia artificial (IA) se duplicaría cada tres meses y medio.



Entre el 2% y el 4% de las emisiones mundiales tienen su origen en la tecnología


De momento, OpenAI no ha indicado cuál es el coste computacional y energético de sus desarrollos, pero estudios recientes de investigadores de Google calculan que el entrenamiento de GPT-3, el anterior modelo del chatbot, consumió 1.287 MWh y generó emisiones de más de 550 toneladas de carbono, a las que hay que sumar las correspondientes a cada conversación, cifradas en millones.

“Tradicionalmente, los centros de datos se han fijado en tener la máxima eficiencia energética, pero últimamente también se está introduciendo el concepto de eficacia del uso de la escasez de agua (WSUE, por sus siglas en inglés)”, detalla Jordi Rubió, consultor técnico en unidad de ciberseguridad de Fibratel, compañía de transformación digital. Este experto añade la contaminación derivada de la fabricación de hardware especializado para la IA, que “puede generar también una gran huella de carbono debido a la extracción de materiales, el consumo de energía y la problemática ambiental en el momento de la eliminación de desechos electrónicos”.



El consumo de la nube


Como se ve, una parte importante de este consumo proviene de los centros de datos, encargados de guardar la información en la nube. Es uno de los sectores que más gasta y responsable del 1% de las emisiones de gases de efecto invernadero, según la Agencia Internacional de la Energía.

Si hablamos de la tecnología, en general, entre el 2% y el 4% de las emisiones mundiales tienen su origen en ella. “La industria es conocedora de estos retos, pero ignoran, en gran medida, el impacto medioambiental de las tecnologías de la información. De hecho, solo el 43% de las empresas españolas muestra un nivel de concienciación sobre el impacto de sostenibilidad de las TI, y el 57% de los encuestados afirma desconocer la huella de carbono de las TI de su propia organización”, apunta Ramón Pérez Blanco, vicepresidente de portfolio y ventas de Capgemini en España, en referencia al informe TI sostenible: por qué es hora de una revolución verde para la TI de su organización.


Para Pérez Blanco, en el caso de ChatGPT, “la disyuntiva es similar a cualquier tecnología avanzada que requiera capacidad de compu­tación: las soluciones tecnológicas tienen un enorme potencial y pueden ayudar a resolver los problemas medioambientales, pero también conllevan su propia huella de carbono”.

Fran Ruiz, responsable de innovación en la consultora Stratesys, cree que existe concienciación por parte de la mayoría de los implicados, “pero la aceleración que estamos viviendo nos posiciona ante una carrera sin precedentes por liderar, eventualmente, la inteligencia artificial general (AGI). En ese proceso acelerado, el impacto medioambiental no está siendo lo más prioritario”, lamenta.

También Elena Jin, profesora del programa de blockchain e innovación digital del IEB, considera que “quizás estemos pasando por alto el coste energético detrás de estas tecnologías, pero creo que seremos capaces de solucionarlo con el tiempo, y si hay interés en ello”. No obstante, recalca que existen “otras muchas actividades tecnológicas e industriales que consumen infinitamente más”.


Cómo disminuir los efectos de la IA

Medidas. Para limitar el impacto ambiental de la inteligencia artificial “es necesario implementar nuevas tecnologías, adoptar prácticas sostenibles y generar conciencia entre los usuarios”, resume Fran Ruiz, responsable de innovación en la consultora Stratesys. Ruiz propone cuatro medidas. La primera, el uso de energías limpias y renovables para la alimentación de los centros de datos donde se ejecutan y entrenan los modelos. También cree conveniente la optimización de los recursos, “reduciendo la cantidad de hardware y software necesaria para llevar a cabo las tareas sin comprometer la eficiencia”. A esto, Ruiz añade la aplicación de algoritmos verdes que “se centran en reducir la cantidad de energía y recursos necesarios para realizar una tarea, mientras se mantiene un alto nivel de eficiencia y rendimiento”. Y, en cuarto y último lugar, la creación de conciencia en los usuarios, ya que también es importante que las empresas y organizaciones responsables, así como los consumidores finales de la inteligencia artificial, sean conscientes del impacto ambiental de su uso.


Consumo. Otros estudios, como el realizado por investigadores de las universidades estadounidenses de Riverside (California) y Arlington (Texas), concluyen que estos modelos conversacionales no solo necesitan una gran cantidad de electricidad, sino también de agua para refrigerar los centros de datos. El desarrollo de ­GPT-3 consumió alrededor de unos 700.000 litros, el equivalente, según los autores, a la necesaria para producir “370 coches BMW o 320 vehículos eléctricos Tesla”. También han estimado lo que se bebe una conversación normal de entre 30 y 50 preguntas: una botella de medio litro.



VERA CASTELLÓ
Madrid - 05 JUN 2023 - 11:00 CEST
https://cincodias.elpais.com/extras/entorno/2023-06-05/chatgpt-dime-cuanto-contaminas.html