A diario miles de millones de personas interactúan con la inteligencia artificial como si fuese parte natural de su rutina. Abren una pestaña, escriben una pregunta, reciben una respuesta.
De hecho, el uso de la IA es cada vez más habitual en distintos sectores y así lo reveló una cifra recientemente confirmada directamente con OpenIA, que estima que los usuarios de ChatGPT envían más de 2.500 millones de prompts al día.
Sin embargo, lo que sucede detrás de esa interacción en términos técnicos, energéticos y ambientales, rara vez es evidente pese a la enorme cantidad de recursos que demanda esta tecnología para su operación, como es el caso del considerable costo hídrico que implica.
Y según la cifra diaria, es posible proyectar un total de más de 912 mil millones de mensajes al año. Un crecimiento al que si bien aún le queda un largo camino por recorrer para alcanzar las 5 billones de búsquedas anuales de Google, representa una disrupción significativa en los hábitos digitales globales.
Por qué la IA tiene sed... y mucha
Como toda infraestructura digital basada en inteligencia artificial, requiere una enorme capacidad computacional que no solo demanda energía, sino también agua.
Cada consulta a ChatGPT implica un proceso de cómputo intensivo que ocurre en servidores distribuidos globalmente. Esos servidores deben mantenerse a temperaturas controladas para funcionar correctamente.
Esa refrigeración, sumada al consumo energético que a menudo depende de fuentes térmicas, implica un uso indirecto y directo de agua.
El consumo de agua en cifras
Según análisis técnicos e informes especializados, cada prompt consume en promedio 0.000322 litros de agua.
Multiplicando esa cantidad por los 2.500 millones de mensajes diarios, se obtiene un estimado de 805.000 litros de agua al día.
Ese volumen equivale al contenido de aproximadamente 1.000 piscinas pequeñas de 800 litros cada una.
En términos anuales, si la intensidad de uso se mantiene constante, el consumo podría acercarse a los 294 millones de litros de agua en un solo año. Número adquiere otra dimensión si se piensa en una conversación estándar con la IA.
Una secuencia típica de 20 a 50 mensajes podría requerir medio litro de agua. Por tanto, el simple acto de mantener un diálogo con un asistente de IA, ya sea para estudiar, redactar un correo o resolver una duda técnica, acarrea una huella hídrica considerable.
La afectación no siempre es la misma
El impacto, sin embargo, no es uniforme. Depende de variables como la ubicación del centro de datos, la fuente energética utilizada o la tecnología de refrigeración implementada.
Centros que emplean sistemas de enfriamiento por aire o circuitos cerrados pueden minimizar significativamente el uso de agua. En cambio, aquellos que operan con enfriamiento evaporativo o que dependen de energía termoeléctrica, tienden a tener un impacto hídrico mayor.
Ver 0 comentarios