La inteligencia artificial (IA) generativa, utilizada en modelos como GPT-4 y Llama 3, consume 33 veces más energía que los algoritmos tradicionales. Este alto consumo energético se debe a la necesidad de computar respuestas en tiempo real, lo que implica un uso intensivo de tarjetas gráficas y TPUs en centros de datos. Según Sasha Luccioni, investigadora de Hugging Face, esto es «tremendamente ineficiente desde una perspectiva computacional».
Un estudio reciente advierte del alto coste ambiental de estos modelos, tanto en términos de energía como de emisiones de carbono. La popularidad creciente de la IA generativa ha llevado a un aumento significativo en el consumo de electricidad en centros de datos, proyectado a superar los 1.000 TWh para 2026, equivalente al consumo de Japón.
La demanda de electricidad de los centros de datos podría sextuplicarse en los próximos 10 años, afectando a las redes eléctricas en países como Reino Unido y Estados Unidos. Para mitigar este impacto, se están explorando soluciones como el uso de reactores nucleares modulares y la inversión en fusión nuclear, liderada por empresas como Microsoft y OpenAI.
Modelos más pequeños y eficientes, como Phi-3 y Gemini Nano, que pueden ejecutarse en dispositivos personales, ofrecen una posible solución. Sin embargo, la competencia por desarrollar modelos más grandes y potentes continúa, lo que perpetúa la necesidad de más centros de datos y mayor consumo energético.
Imagen: Microsoft