Notebookcheck Logo

La IA y su consumo energético: un problema entre otros

Mucho esfuerzo para un rendimiento a veces muy manejable: la inteligencia artificial. (Imagen: pixabay/viarami)
Mucho esfuerzo para un rendimiento a veces muy manejable: la inteligencia artificial. (Imagen: pixabay/viarami)
Desde luego, no es ningún secreto que ChatGPT y otros sistemas de IA son devoradores de energía. Y cuando Sam Altman, director general de OpenAI, admite que esto podría convertirse en un problema, sin duda merece la pena hacer cuentas y mirar hacia el futuro.

ChatGPT necesita actualmente la electricidad de 33.000 hogares. 70.000 u 80.000 personas podrían utilizar esta energía durante todo un año.

Sin embargo, los planes de OpenAI se basan, por supuesto, en un futuro similar al presente de Google. Sólo sus consultas de búsqueda pueden generar una cantidad considerable de energía.

Según diversas fuentes, todas ellas referidas a una cifra algo más antigua, se utilizan 0,3 Wh por consulta de búsqueda: 8.500 millones de consultas de búsqueda al día en todo el mundo.

Eso supondría un total de casi 1 teravatio hora al año sólo para procesar las consultas de búsqueda. Si lo extrapolamos a los hogares, ya son entre 90.000 y 100.000. Eso es el consumo eléctrico de los hogares de Reno o Buffalo.

Sin embargo, la cifra de Google, que sigue siendo claramente gigantesca, es sólo tres veces superior a la de ChatGPT. Y para ambas empresas, estamos hablando de un aspecto de toda la empresa.

Según los datos de la empresa Google, el consumo total es en realidad de 6 teravatios hora, 6 veces más que las propias consultas de búsqueda. Sin embargo, esto es a nivel mundial. Si tomamos el consumo total de electricidad en EE.UU., por ejemplo, esta cifra corresponde a poco más del 0,1%.

Sin embargo, OpenAI declara un factor de 4 a 5 por consulta de búsqueda. Además, el número de consultas de búsqueda también se duplica cada pocos años.

Por tanto, si el volumen de búsquedas actual fuera gestionado por ChatGPT y sus competidores, el valor utilizado por Google podría quintuplicarse fácilmente.

Serían 30 teravatios hora. Toda Los Ángeles, con sus 4 millones de habitantes, puede arreglárselas con esta cantidad de electricidad. Por otro lado, 30 TWh son sólo una pequeña fracción de la producción mundial de energía, pero representan el uso global de la IA.

Y sin embargo: si el desarrollo progresa de forma generalizada, las consultas de búsqueda sólo serán respondidas por la IA en el futuro y la cifra sigue aumentando al mismo ritmo, estará más cerca de los 60 o 100 TWh. Aquí parece haber un potencial de ahorro innegable.

Por supuesto, la tecnología también puede utilizarse para ahorrar electricidad. Si obtengo mejores resultados de búsqueda, no tengo que hacer clic en cuatro o cinco sitios web, puedo simplemente hacer clic en el primero. Puedo generar una foto y no tengo que crearla y editarla yo mismo. Puedo editar documentos con colegas y amigos sin estar in situ, lo que por supuesto también ahorra energía (aunque para ello no se necesita IA).

No obstante, sigue siendo importante concienciar sobre el hecho de que la IA puede y debe hacerse más eficiente. Confiar simplemente en que hay suficiente energía barata disponible podría resultar una falacia demasiado conveniente.

En este sentido, la llamada de atención de Sam Altman es una buena señal. Su plan de utilizar la fusión nuclear https://www.energytrend.com/news/20230511-31989.htmlpara equilibrarlo todo, por otra parte, parece bastante ingenuo.

Please share our article, every link counts!
Mario Petzold, 2024-02-22 (Update: 2024-02-22)