
El consumo energético de Gemini: Sorprendentemente bajo
Google ha publicado un informe técnico revelando el consumo energético de su IA Gemini. Contrario a las estimaciones previas, el consumo es significativamente menor. Una consulta promedio utiliza solo 0.24 vatios-hora de electricidad, equivalente al consumo de una televisión convencional durante nueve segundos. El consumo de agua también es mínimo, apenas 0.26 mililitros, o cinco gotas de agua por consulta. La huella de carbono por inferencia se estima en 0.03 gramos de CO₂ equivalente.
Comparación con estimaciones anteriores: Un error significativo
Estudios anteriores sobreestimaban el consumo energético de las consultas de IA de Google en un factor de 12.5. Se creía que una consulta consumiría alrededor de 3 Wh, diez veces superior a la cifra real. Estas estimaciones erróneas llevaron a predicciones exageradas sobre el impacto energético del despliegue de la IA en el buscador de Google.
Eficiencia mejorada: Software y hardware
La mayor eficiencia se atribuye a nuevas técnicas de software como la decodificación especulativa y arquitecturas de modelos más eficientes, como el paradigma Mixture-of-Experts. Además, las mejoras en aceleradores de IA (TPUs y GPUs) han contribuido a la reducción del consumo energético. Google ha logrado reducir el consumo de energía por consulta de Gemini en un 33% y la huella de carbono en un 44% en los últimos 12 meses.
Comparación con ChatGPT: Un consumo similar
OpenAI también ha compartido datos sobre el consumo de ChatGPT. Una consulta promedio consume aproximadamente 0,34 Wh, ligeramente más que Gemini. Sin embargo, las diferencias metodológicas dificultan una comparación precisa. Ambas compañías resaltan que el consumo de una hora de Netflix es considerablemente mayor al de una consulta de IA.
El enfoque en la inferencia: Un paso hacia la transparencia
Es importante destacar que las cifras publicadas se refieren al consumo durante la inferencia (respuesta a las consultas de los usuarios), no al entrenamiento de los modelos. Google justifica este enfoque dado la creciente importancia de la inferencia con la adopción masiva de la IA generativa en su buscador. Sin embargo, el consumo energético del entrenamiento de estos modelos sigue siendo un dato desconocido.
Conclusión: La IA, menos consumidora de lo que se pensaba
Los datos oficiales de Google y OpenAI revelan un consumo energético de la IA generativa significativamente menor al estimado anteriormente. Si bien la transparencia en el consumo energético durante el entrenamiento de los modelos aún es limitada, la información disponible sugiere que el impacto energético de la IA, al menos en la etapa de inferencia, es menor de lo que se temía.
Fuente: Xataka