La inteligencia artificial (IA) no solo consume una inmensa cantidad de energía, también mucha agua limpia. Se estima que para mantener una conversación de entre 10 y 50 interacciones, ChatGPT-3 ‘se bebe’ el equivalente a una botella de medio litro. Esta cifra varía según el momento, el lugar y la complejidad del prompt, pero si la plática es con su sucesor, GPT-4, la cantidad aumenta, dado que su modelo es sustancialmente más grande.
Un estudio de finales de 2023 arrojó luz sobre el problema: si no se identifican soluciones para reducir el consumo hídrico de los centros de datos, los empleos desplazados por la IA, las cuestiones éticas y la regulación no serán nuestras únicas preocupaciones. Mientras el planeta se enfrenta a las sequías, la escasez de agua se suma a la lista de desafíos globales asociados a esta tecnología.
La manera en que la IA consume agua no resulta inmediatamente obvia. Los centros de datos, donde operan los servicios de la nube, esconden su sucio secreto: requieren enormes cantidades de electricidad para mantener sus superordenadores funcionando día y noche. Incluso antes de la aparición de ChatGPT, ya consumían al rededor del 2% de la energía mundial. El agua es fundamental porque sirve para refrigerar y evitar el sobrecalentamiento de los servidores. Y en la mayoría de los casos se utiliza agua potable para prevenir la corrosión de los equipos y la contaminación por bacterias.
Otro agravante es que este consumo no se puede comparar con el gasto que implica abrir el grifo para lavar los platos o ducharse. En los sistemas de refrigeración, la mayor parte del agua se evapora. Aunque retornará a la atmósfera, su reutilización no es directamente factible. Además, hay que considerar que también se gasta agua en la generación de la energía necesaria para que la tecnología funcione, especialmente en centrales de carbón y gas natural. También en la cadena de suministros. En conjunto, se trata de una serie de factores que hasta ahora no han sido debidamente considerados en la ecuación.
El profesor asociado de ingeniería eléctrica y computacional de la Universidad de California en Riverside Shaolei Ren, coautor del estudio, matiza que, por regla, las fichas informativas de los modelos de IA incluyen datos básicos sobre cómo se entrenan esos modelos, desde dónde se recopilan los datos y cuál es su uso previsto. También indican cuánta energía se consume en su entrenamiento y muchas de ellas incluyen las emisiones de carbono. “Pero, hasta ahora, no se menciona el agua en absoluto. Esto muestra claramente una falta de comprensión de este problema de sostenibilidad, porque hablan únicamente del carbono, lo que es solo una parte”, explica a Retina por videoconferencia.
Para encontrar la huella hídrica, los investigadores han perseguido las cifras ocultas de los gigantes tecnológicos. En general, entre 2021 y 2022, el uso de agua de los centros de datos de Google aumentó en un 20%. El de Microsoft, que aloja parcialmente a ChatGPT, en un 34%. Según estimaciones (porque la empresa no lo ha admitido) el entrenamiento de GPT-3 puede haber evaporado 700,000 litros de agua dulce limpia. “Estos incrementos significativos probablemente se atribuyan, en parte, a la creciente demanda de IA”, dice el estudio, que no contempla los datos de GPT-4. Sin embargo, no hay dudas de que es aún más expresivo, dado que un modelo más grande significa un mayor número de parámetros, más cálculos en cada uso y también durante el entrenamiento.
TRANSPACENCIA PARA LA EQUIDAD AMBIENTAL
Como solución, Ren y sus compañeros enfatizan que las big tech deben de ser más transparentes, solamente así se podrá tomar medidas. Según dice el investigador, entre los gigantes, Meta es la única empresa que presenta datos sobre el agua que extrae y la que se evapora. De hecho, la compañía de Zuckerberg se vio obligada a optimizar el sistema de refrigeración para el hipercentro de datos que va a ubicar en Talavera de la Reina. Inicialmente, se estimaba que requeriría más de 665 millones de litros de agua potable al año, lo que representa una enorme fracción de la reservada al abastecimiento urbano e industrial de todo el municipio. La empresa ha reducido este número en un 24%, disminuyendo la proyección a 504 millones de litros anuales.
En este contexto, el cuándo y el dónde importan. A grandes rasgos, una central situada en el norte de Irlanda implica un consumo distinto que una en el sur oeste de Estados Unidos. Procesar datos durante la noche o en horas de baja demanda requiere menos agua que hacerlo durante el día o en horas pico. Lo mismo para si es verano o invierno. Y es una fórmula compleja. Para minimizar la huella de carbono, muchas empresas sitúan sus centros de datos en zonas cálidas donde la energía solar es abundante. Sin embargo, estas son precisamente las áreas donde se necesita más agua para refrigeración.
Ren señala que los usuarios no tienen muchas opciones aparte de utilizar la IA con mayor criterio. Recuerda que, según estimaciones de la comunidad científica, ejecutar tareas en ChatGPT u otros similares puede consumir hasta 10 veces más recursos que una búsqueda simple en Google. Asimismo, la responsabilidad recae en manos de las tecnológicas. El investigador detalla: “Si esas empresas fueran más transparentes y nos informaran sobre su eficiencia hídrica y su sostenibilidad en tiempo real, quizás los usuarios tendrían más opciones. Por ejemplo, si no tengo prisa, puedo usar los servicios más tarde, cuando sean más eficientes. Es algo que cambia rápidamente cada pocos minutos. Es como el precio de las acciones en la bolsa”.
Tal y como defiende este experto en IA, las big tech deberían utilizar esta información justamente para aumentar su eficiencia hídrica en tiempo real, de manera similar a cómo se optimiza actualmente el consumo energético. No es una misión imposible. Ren pone como ejemplo a Microsoft y sus centros de datos repartidos por todo el mundo: “Si una ubicación tiene más energía solar, van a poner más cargas de trabajo allí. Lo están haciendo a cada pocos minutos. También pueden incluir el agua como una métrica más. Creo que es bastante fácil para ellos integrar esta huella hídrica en sus decisiones de balanceo geográfico”.
Por otro lado, si las empresas utilizan la flexibilidad geográfica tan solo para minimizar costes, estaría desfavoreciendo a ciertas regiones. Ren afirma: “Es un problema de equidad ambiental. Por lo tanto, proponemos que se debe asegurar de que cuando minimice el coste energético, también se considere el impacto ambiental de la IA en diferentes regiones”. Asegura que la preocupación por el agua lleva retraso. Específicamente, va una década por detrás de los esfuerzos para frenar las emisiones de carbono.
La escasez de agua dulce ha sido uno de los desafíos más relevantes a nivel global desde hace tiempo, pero fue solo en el último diciembre cuando la Comisión Electrotécnica Internacional informó de que ya está trabajando en el primer estándar internacional del mundo para la sostenibilidad en IA. Se trata de un informe técnico que cubrirá el consumo de energía y agua, los residuos, la huella de carbono, el ciclo de vida de los sistemas y las cadenas de suministro. La UNESCO recomienda que “en situaciones donde existan impactos negativos desproporcionados en el medio ambiente, no se debe utilizar la inteligencia artificial”. Un consejo ambicioso, al menos hasta que se revele el verdadero consumo de recursos implicado en su operación.
POR