La IA podría necesitar pronto tanta electricidad como la Argentina en un año

ChatGPT, de OpenAI, irrumpió en escena hace casi un año, alcanzando una cifra estimada de 100 millones de usuarios en dos meses y desencadenando un boom de la IA.

Entre bastidores, la tecnología depende de miles de chips informáticos especializados.

Y en los próximos años podrían consumir cantidades ingentes de electricidad.

Un análisis revisado por pares publicado el martes presenta algunas estimaciones iniciales.

En un escenario intermedio, en 2027 los servidores de IA podrían consumir entre 85 y 134 teravatios hora (Twh) al año.

Esta cifra es similar a la que consumen Argentina, Países Bajos o Suecia en un año, y equivale aproximadamente al 0,5% del consumo eléctrico mundial actual.

El robot Charlie en el Centro de Innovación Robótica del Centro Alemán de Investigación de Inteligencia Artificial (DFKI) en Bremen, Alemania, el 14 de septiembre de 2023.. (Foto de FOCKE STRANGMANN / AFP)

«No hay que exagerar», afirma Alex de Vries, el científico de datos que realizó el análisis.

«Pero al mismo tiempo, las cifras que apunto no son pequeñas».

La electricidad necesaria para hacer funcionar la IA podría disparar las emisiones de carbono del mundo, dependiendo de si los centros de datos obtienen su energía de combustibles fósiles o de recursos renovables.

En 2022, los centros de datos que alimentan todos los ordenadores, incluida la nube de Amazon y el motor de búsqueda de Google, utilizaron entre el 1% y el 1,3% de la electricidad mundial.

Eso excluye la minería de criptomonedas, que utilizó otro 0,4%, aunque algunos de esos recursos ahora se están redistribuyendo para ejecutar IA.

De Vries es estudiante de doctorado en la Universidad Libre de Ámsterdam y fundó la empresa de investigación Digiconomist, que publica el Índice de Consumo Energético de Bitcoin.

Es imposible cuantificar con exactitud el consumo energético de la IA, porque empresas como OpenAI revelan muy pocos detalles, incluido el número de chips especializados que necesitan para ejecutar su software.

Así que de Vries ideó una forma de calcular el consumo de electricidad utilizando las ventas previstas de servidores Nvidia A100, el hardware que se calcula que utiliza el 95% del mercado de IA.

«Cada uno de estos servidores Nvidia es una bestia hambrienta de energía», afirma de Vries.

Partió de una proyección reciente según la cual Nvidia podría comercializar 1,5 millones de estos servidores en 2027, y multiplicó esa cifra por el consumo eléctrico de sus servidores: 6,5 kilovatios para los servidores DGX A100 de Nvidia, por ejemplo, y 10,2 kilovatios para sus servidores DGX H100.

Pero hay que tener en cuenta varias advertencias.

Los clientes podrían utilizar los servidores a menos del 100% de su capacidad, lo que reduciría el consumo eléctrico. Pero la refrigeración de los servidores y otras infraestructuras elevarían el total.

Nvidia se fija en la IA

Como ha informado The Times, Nvidia se ha hecho con una posición de liderazgo en el hardware de IA que probablemente persistirá durante varios años, aunque sus rivales se esfuerzan por alcanzarla.

El limitado suministro de chips de Nvidia es un cuello de botella para el crecimiento de la IA, lo que hace que empresas grandes y pequeñas luchen por conseguir su propio suministro de chips.

«Se hacen muchas declaraciones dramáticas sobre el rápido crecimiento de la IA, etc., pero en realidad se trata de la rapidez con la que se consiguen esos chips», afirma Benjamin Lee, profesor de ingeniería eléctrica e informática de la Universidad de Pensilvania.

Nvidia afirmó en un comunicado enviado por correo electrónico que los chips especializados de la empresa son mejores que otras opciones, dado que harían falta muchos más chips convencionales para realizar las mismas tareas.

«La computación acelerada con tecnología NVIDIA es el modelo informático más eficiente desde el punto de vista energético para la IA y otras cargas de trabajo de los centros de datos», afirma la compañía.

Algunos expertos instan a las empresas a tener en cuenta el consumo eléctrico a la hora de diseñar la próxima generación de hardware y software de IA.

Pero esto es difícil de vender cuando las empresas se apresuran a mejorar sus modelos de IA lo antes posible.

«Quizá lo ideal sea que vayamos un poco más despacio para empezar a aplicar las soluciones que tenemos», afirma Roberto Verdecchia, profesor adjunto del Laboratorio de Tecnologías de Software de la Universidad de Florencia.

«No hagamos un nuevo modelo para mejorar sólo su precisión y velocidad. Pero también respiremos hondo y analicemos cuánto estamos quemando en términos de recursos medioambientales.»

c.2023 The New York Times Company