Saturday , 20 May 2024
Tecnología

Sam Altman afirma que el consumo de agua y energía de Chatgpt es pequeño. El problema es que no da evidencia de ello – Tinta clara

  • junio 11, 2025
  • 0

Un correo electrónico de 100 palabras generados por GPT-4 consume 519 mililitros de agua. Esa fue la conclusión a la que llegaron investigadores de la Universidad de California

Sam Altman afirma que el consumo de agua y energía de Chatgpt es pequeño. El problema es que no da evidencia de ello

 – Tinta clara

Un correo electrónico de 100 palabras generados por GPT-4 consume 519 mililitros de agua. Esa fue la conclusión a la que llegaron investigadores de la Universidad de California hace unos meses después de analizar este modelo Operai. Sam Altman, CEO de la Compañía, acaba de producir su propia estimación sobre el consumo de agua y energía de cada consulta de CHATGPT. Y es muy diferente.

1,000 veces menos de lo que se dijo. Según Altman, una consulta promedio en ChatGPT consume mucho menos de lo que se había indicado en estudios anteriores. Sus datos son sorprendentesY entenderlos hace analogías interesantes:

«A medida que la producción automatizada en los centros de datos automatiza, el costo de la inteligencia debe abordar la electricidad (las personas generalmente tienen curiosidad por saber cuánta energía consume una consulta de CHATGPT; la consulta promedio (0.32 ml);
Un estudio previo de Epoch AI corrobora los datos que Sam Altman ahora ha manejado. Fuente: Epoch AI.

¿Y las pruebas? Esas cifras mencionadas por el CEO de Operai tienen un problema: no tienen soporte visible. Los arroja sin citar fuentes o explicar dónde las ha sacado, algo que hace que sea difícil creer. Un ejecutivo de Meta respondió la pregunta de cuánto consume la inferencia hace años y media respondiendo que «solo se necesitarían dos reactores nucleares para cubrirla».

Pero estudios previos coinciden con Altman. Aunque no menciona ninguna evidencia, en febrero, los investigadores de la EPOCH AI se publicaron con precisión un estudio que intentaba estimar el consumo de energía de ChatGPT. En sus conclusiones indicaron que, en promedio, una consulta de chatgpt Informe anterior del investigador Alex de Vries. Desde entonces, por supuesto, muchas cosas han sucedido.

Demasiado pesimista. Y cuando comentaron sobre el estudio de la época AI, la diferencia proviene del hecho de que los modelos son hoy mucho más eficientes que en 2023, cuando VRIES realizó su estudio. También lo es el hardware en el que se ejecutan estos modelos, y esa estimación también se utilizó un enfoque «especialmente pesimista». En el estudio de OpenAi también arrojaron una estimación especialmente pesimista y señalaron que «es posible que la mayoría de las solicitudes [a ChatGPT] Ser mucho más barato [energéticamente]»

Más estudios. Otro estudio independiente publicado por Andy Masey en enero de 2025 llegó a una conclusión similar y afirmó que «usar chatgpt no es malo para el medio ambiente». Se basó en Datos de EPRI Mayoo de 2024 que también estimó un alto consumo de 2.9 WH por consulta ChatGPT. El consumo estimado de agua en los centros de datos, de Un estudio de SunbirdTambién fue muy modesto en comparación con otras actividades en línea.

Consumo de agua en centros de datos para diversas actividades en línea. Fuente: Andy Masley.

Césped. Precisamente, los datos del consumo de agua fueron otra sorprendente en esa estimación de Sam Altman. Según él, una consulta de chatgpt apenas consumió 0.32 ml de agua, «una parte de Quinceava de una cucharadita». La cifra sugiere que el agua necesaria para refrigerar los centros de datos que procesan estas solicitudes es mucho menor de lo que se pensó hace solo un año.

Y entrenamiento, ¿qué? Estas estimaciones se centran en la sección de inferencia de IA, es decir, nuestro uso de ChatGPT que recibe una consulta y procesa que infere (generando) un resultado de texto. Aunque Altman no lo aclara, no parece incluir aquí el costo de energía y agua del entrenamiento de modelos de IA, que es muy alto y hace que miles de GPU funcionen a plena potencia durante meses, con el consiguiente gasto de agua en los centros de datos para refrigerar todos esos componentes que disipan las altas cantidades térmicas. Como señalé El investigador Ethan Mollick, GPT-4 probablemente usó más de 50 GW para ser entrenado, suficiente para dar energía a 5.500 hogares en un año.

Continuamos sin datos definitivos. Las afirmaciones de Altman son siempre sorprendentes, pero la falta de evidencia clara dificulta creer en estos datos. Otros estudios recientes son más útiles cuando se trata de reflejar este costo cada vez más menor tanto en energía como en agua del uso de IA, pero no hay estándares aceptados o un consenso sobre el verdadero impacto de la energía y el consumo de agua cuando se usa ChatGPT u otros modelos de IA.

Imagen | Lukáš lehotský | Village Global

En | El precio de la luz es nuevamente negativo: es una señal de que el sistema necesita un rediseño