GPT-5 impulsa el aumento de recursos de IA, pero los centros de datos muestran una eficiencia sorprendente
La IA está en todas partes ahora, con temas como GPT-5 y el reciente anuncio de código abierto de Grok acaparando titulares. Una de las principales (y más válidas) críticas a esta tecnología es su alto consumo de energía; algunos estudios sugieren que GPT-5 consume suficiente electricidad como para abastecer a 1,5 millones de hogares al día, sin mencionar la cantidad de agua necesaria para refrigerar esos centros de datos.
Pero un nuevo informe indica que podría haber otra opción, una que no implica que tengamos que devastar el planeta para usar tecnología de IA. La Agencia Ambiental del Reino Unido y techUK colaboraron para analizar 73 centros de datos en toda Inglaterra, y los resultados son sorprendentes y alentadores.
Según TechUK, el 51 % de los centros de datos utilizaban sistemas de refrigeración sin agua, y el 64 % utilizaba menos de 10 000 m³ de agua al año. Como referencia, esta cifra es inferior a la del centro recreativo promedio. Además, el 89 % de los centros de datos monitorizaban el consumo de agua para lograr resultados más respetuosos con el medio ambiente.

Los hallazgos contradicen la creencia generalizada de que los centros de datos de IA consumen enormes cantidades de agua. Richard Thompson, subdirector de Recursos Hídricos de la Agencia de Medio Ambiente del Reino Unido, declaró: «Me siento alentado por el trabajo que techUK ha realizado para comprender mejor el uso del agua. Los hallazgos sugieren que los centros de datos del Reino Unido están utilizando diversas tecnologías de refrigeración y están adoptando una mayor concienciación sobre el agua. Los avances tecnológicos deben ir de la mano con la protección del suministro público de agua, la seguridad alimentaria y el medio ambiente. Es fundamental que el sector priorice la sostenibilidad y minimice el uso de agua de acuerdo con la evolución de las normas. Estamos trabajando con la industria y otros organismos reguladores para mejorar estas normas y garantizar los mejores resultados para nuestro medio ambiente y nuestro suministro de agua para las generaciones futuras».
Todavía queda el problema del poder.
Si bien es alentador ver que los centros de datos consumen menos agua de lo que se creía, nadie puede negar que consumen una cantidad absurda de energía. Si bien la situación ha mejorado desde 2023, el planeta aún enfrenta una crisis energética, y la creciente necesidad de energía para la inteligencia artificial está echando leña al fuego, que ya estaba fuera de control.
El problema es que no está clara la cantidad específica de energía requerida. Un estudio de 2024 del Laboratorio Berkeley muestra un aumento en el consumo de energía que se corresponde con la creciente popularidad de los asistentes de IA, pero es difícil determinar las cifras exactas porque muy pocas empresas de IA publican sus datos de consumo.

Según Sam Altman de ChatGPT, una consulta promedio consume aproximadamente 0,34 vatios-hora de energía. Puede que no parezca mucho, pero es una cantidad considerable si consideramos los millones de consultas que pasan por la IA cada día. Es aproximadamente el equivalente a la cantidad de energía que consume una bombilla LED en dos minutos.
Posteriormente, Google publicó sus propias cifras de uso. Sin embargo, el gigante de las búsquedas advierte que estas subestiman considerablemente el impacto ambiental general de Gemini , con un promedio de 0,10 vatios-hora de energía y 0,12 ml de agua utilizados por consulta.
En cuanto a Grok, no está claro cuánta energía utiliza la plataforma, pero un chat sugirió que podría utilizar entre 1 y 2 vatios-hora de energía.
Los requisitos energéticos de la IA disminuyen a medida que la tecnología madura. Google informó que «en un período reciente de 12 meses, el consumo energético y la huella de carbono total de la solicitud de texto promedio de Gemini Apps se redujeron 33 y 44 veces, respectivamente, a la vez que se ofrecían respuestas de mayor calidad». ( Transcrito por ZDNet ).
La IA podría ser el futuro, pero no puede costar el planeta
Las preocupaciones ambientales en torno a la inteligencia artificial no han pasado desapercibidas. Google propuso recientemente una solución integral de sostenibilidad que abordará el problema desde múltiples perspectivas. La compañía prometió reducir el uso durante las horas punta para evitar apagones, así como optimizar el rendimiento e implementar técnicas como la decodificación especulativa, que reduce la carga de trabajo y, por consiguiente, la demanda energética.

Sin embargo, Google es solo una empresa, y aunque sus cifras están mejorando, su consumo energético total se ha duplicado en los últimos cuatro años. Un estudio de 2023 mostró que casi el 30 % de los estadounidenses utiliza inteligencia artificial a diario (una cifra que sin duda ha aumentado desde entonces), mientras que una encuesta reciente de Reuters/Ipsos muestra que el 61 % está preocupado por los costes energéticos.
Estas cifras dejan claro que empresas como OpenAI y Google deben encontrar soluciones que reduzcan el impacto de la inteligencia artificial. La tecnología es nueva, y con cualquier tecnología de vanguardia se espera cierto desperdicio, pero ya lleva tanto tiempo disponible que el efecto de los centros de datos en las comunidades locales y el planeta en general es evidente.
Cuando las computadoras aparecieron por primera vez, una PC promedio ocupaba el tamaño de una habitación entera. Ahora caben en nuestros bolsillos. La tecnología de IA deberá seguir ese mismo patrón, pero a mayor escala y con un enfoque en los recursos que requiere. No veo ninguna posibilidad de que el mundo vuelva a meter a este genio en la lámpara, pero en un momento en que ya estamos experimentando una crisis climática, debemos ser más éticos y considerados con nuestro enfoque.
El descubrimiento de que algunos centros de datos están utilizando mucha menos agua de lo esperado es alentador, pero es solo una pequeña parte de un esfuerzo mucho mayor.