Si miramos el panorama actual, la Inteligencia Artificial generativa es la que corta el bacalao. OpenAI sigue en la cresta de la ola y nosotros nos hemos acostumbrado a la magia instantánea: prompt va, respuesta viene. Sin embargo, detrás de esa caja de texto tan minimalista o para usar aplicaciones revolucionarias de Inteligencia Artificial hay una infraestructura física que pesa toneladas.
Eso de «la nube» suena muy ligero, pero la realidad es que es puro hierro, silicio y refrigerante. Cada vez que le preguntas algo a la IA, un contador invisible empieza a correr. Muchos tecnófilos ya saben que esto funde la red eléctrica, pero la verdadera pregunta incómoda es cuánta agua consume ChatGPT realmente. Spoiler: prepárate, porque las cifras tienen mucha sed.
¿Cuánto agua consume ChatGPT por consulta?
Vamos al grano con la pregunta del millón. Los estudios más recientes (y citados hasta por la Universidad de California) estiman que una conversación estándar con GPT-4, de unas 20 a 50 preguntas, se «bebe» aproximadamente una botella de agua de 500 ml.
Si hilamos más fino, una sola respuesta compleja de unas 100 palabras puede llegar a gastar hasta 519 ml en el peor de los escenarios (servidores poco eficientes en zonas calurosas). No parece mucho si lo piensas en aislado, pero multiplica eso por los millones de usuarios activos diarios y tienes un océano evaporándose en tiempo real.
Por qué las imágenes de IA consumen (mucha más) agua
Ojo aquí, porque si el texto gasta, las imágenes directamente derrochan. Generar un meme con DALL-E 3 o Midjourney no es lo mismo que pedir un resumen de texto. La generación de imágenes requiere una potencia de cálculo brutalmente mayor (modelos de difusión trabajando píxel a píxel para reducir ruido). Se estima que generar una sola imagen consume tanta energía como cargar tu smartphone al completo. Y esa energía extra significa más calor, y ese calor necesita… exacto, más litros de agua para disiparse. Si te lías a probar prompts para conseguir la imagen perfecta, tu huella hídrica se dispara exponencialmente comparada con el chat de texto.

Tu huella personal: ¿qué pasa si uso mucho ChatGPT?
Es fácil pensar «bueno, yo solo soy un usuario». Pero el efecto hormiga es real. Si eres un power user que utiliza la IA como copiloto diario para programar, redactar correos o buscar información:
- 10 consultas al día pueden suponer un gasto indirecto de más de un litro de agua a la semana.
- Al cabo del año, tu productividad personal podría haber «costado» cientos de litros de agua potable en algún lugar de Iowa o Arizona. No es para que dejes de usarlo, sino para ser consciente de que esa «eficiencia» digital tiene un coste físico en otro lado del planeta.
¿La IA realmente «drena» agua o la devuelve?
Esta es una duda técnica muy válida. ¿El agua desaparece? En gran parte, sí. Los centros de datos usan principalmente dos tipos de agua:
- Agua para consumo (Evaporación): Las torres de refrigeración funcionan evaporando agua para enfriar los circuitos. Ese agua se va a la atmósfera y no vuelve a la cuenca hidrográfica local inmediatamente. Es agua «perdida» para esa comunidad.
- Agua de purga: Parte del agua que circula debe ser expulsada (purgada) porque acumula demasiadas sales y minerales que dañarían los equipos. Ese agua residual debe tratarse.
Así que sí, la IA realmente «drena» recursos hídricos locales, compitiendo en muchas zonas con la agricultura o el consumo humano.
Un futuro que necesita hidratarse
La gran pregunta es cómo vamos a mantener este ritmo. Las big tech ya están haciendo la guerra por su cuenta prometiendo ser «water positive» para 2030 (devolver más agua de la que consumen mediante proyectos de restauración). De la manera que sea, la próxima gran revolución de la IA tendrá que pasar obligatoriamente por la eficiencia pura y dura, o corremos el riesgo de que nuestro asistente virtual nos deje literalmente secos.

