El uso cada vez mas extendido de la inteligencia artificial IA incrementa demanda mundial de energía, especialmente para los centros de datos. Este aumento se debe al entrenamiento de modelos de IA, que requieren enormes capacidades de cálculo y al funcionamiento continuo de los servidores de los centros de datos.
Se estima que los centros de datos, impulsados por la IA, podrían consumir el 5% de la electricidad en América Latina y el Caribe para 2035.
Un informe de la Agencia Internacional de Energìa publicado en Abril 2025, señala que;”la IA podría transformar el funcionamiento de la industria energética si se adopta a gran escala. Sin embargo, hasta ahora, los responsables políticos y otras partes interesadas han carecido a menudo de las herramientas para analizar ambos aspectos de esta cuestión debido a la falta de datos exhaustivos.”
En 2022, los centros de datos consumieron aproximadamente 460 teravatios hora (TWh), una cifra que ya representa más de un 2% del consumo global de electricidad, y si las tendencias actuales se mantienen, el consumo podría duplicarse para 2026, alcanzando los 1000 TWh anuales. Para dimensionar este número, equivale a todo el consumo eléctrico anual de Japón, uno de los países más desarrollados del planeta.
Actualmente, el uso de energía por la IA solo representa una fracción del consumo del sector tecnológico, que se estima en torno al 2-3% del total de emisiones mundiales. Es probable que esto cambie a medida que más empresas, gobiernos y organizaciones utilicen la IA para mejorar la eficiencia y la productividad.
“Si la tendencia no cambia, la IA podría estar en camino de consumir anualmente tanta electricidad como todo el país de Irlanda (29,3 Tera vatios-hora por año). Este alto consumo, además, comporta la generación de CO2.” afirma otro estudio fechado en 2024
El crecimiento exponencial en el número de parámetros en los modelos es uno de los principales motivos de este alto consumo de recursos. Los parámetros, como mencionamos anteriormente, son los pesos y sesgos que se ajustan durante el entrenamiento para que el modelo aprenda a generar contenido útil. Cuantos más parámetros tenga un modelo, más complejo y “capaz” es, ya que tiene una mayor capacidad para aprender patrones detallados y representaciones complejas a partir de los datos.
El número de parámetros en los modelos de IA ha crecido exponencialmente en los últimos años. Por ejemplo, el modelo GPT-2 de OpenAI (2019) tenía alrededor de 1.5 mil millones de parámetros, mientras que GPT-3 (2020) aumentó a 175 mil millones, y se estima (no se han publicado los datos) que GPT-4 tiene 1.76 billones de parámetros (billones de los españoles, no anglosajones )