Estima la Olade (Organización Latinoamericana de Energía) que la inteligencia artificial consumirá el 5% de la electricidad en América Latina y el Caribe (ALC) en el año 2035. La entidad supranacional emitió un breve informe al respecto en el que indica que un documento técnico de la organización estimó que el destinado a abastecer la inteligencia artificial será una cifra, “equivalente a más de 120 teravatios hora (TWh) anuales, evidencia el alto impacto energético que tendrá el desarrollo acelerado de esta tecnología en la región”.
Señala el estudio que actualmente “existen 455 centros de procesamiento de datos para aplicaciones de IA en ALC. Considerando un consumo promedio de 50 gigavatios hora (GWh) por centro al año –cifra extrapolada de los 7.000 centros existentes a nivel mundial con un consumo total de 350 TWh–, se estima que en 2023 estas instalaciones ya representaban el 1,6% del consumo eléctrico regional”.
El crecimiento proyectado es del 165% en el número de centros de datos a nivel global entre 2023 y 2030, lo que representa una tasa promedio anual del 15%. “Bajo ese mismo ritmo de expansión, la región experimentará una demanda energética sin precedentes asociada al funcionamiento de servidores de IA, especialmente en áreas críticas como el entrenamiento de algoritmos, la ejecución de consultas y los complejos sistemas de enfriamiento necesarios para mantener la operatividad”.
Frente a este escenario el Secretario Ejecutivo de Olade, Andrés Rebolledo, comentó que “la transformación digital de nuestros sistemas productivos debe ir de la mano con una planificación energética responsable y sostenible, pues la IA podría competir por recursos energéticos con sectores prioritarios como el residencial, el industrial o el transporte”. Agrega la comunicación de Olade que con el crecimiento exponencial de los datos y la expansión de la inteligencia artificial generativa “es importante que los países de la región fortalezcan sus marcos regulatorios, mejoren la eficiencia energética de sus centros de datos y sigan apostando por fuentes renovables que amortigüen el impacto ambiental del avance tecnológico”. Es que a veces pareciera que la electricidad es inagotable y que no hubiese que generarla y que países como el nuestro ha encontrado un filón en la generación de fuentes renovables, pero antes de ello se sufrió bastante con la generación térmica y la exposición a los precios internacionales del petróleo o por la importación desde los países vecinos, que muchas veces no tenían ni para ellos.
Pero del mismo modo que propone Olade que se generen regulaciones con respecto al uso de la energía eléctrica destinada al abastecimiento de servidores, habría que pensar respecto al agua. Ni falta hace decir que si la electricidad es un recursos estratégico, que no podemos decir del agua, cuando venimos de una brutal crisis hídrica que nos tuvo contra las cuerdas hace nada más que un par de años y cuyas secuelas siguen dando que hablar a primer nivel de discusión pública. Bueno, el consumo desmedido de agua es otra de las sorpresitas que este magnífico desarrollo nos tiene deparado.
Dice un informe de CNN Chile publicado el lunes que aunque OpenAI no ha revelado cifras exactas sobre el consumo de agua de sus operaciones, un estudio de la Universidad de California y la Universidad de Texas estima que cada consulta simple a un modelo como ChatGPT-3 podría generar el uso de 500 mililitros de agua. Una botellita de medio litro por cada pregunta que se ingresa en el casillero del chat. Y este consumo se dispara cuando el requerimiento es de una imagen, como las generadas por inteligencia artificial “al estilo de Studio Ghibli”, que en los últimos días se volvieron el fenómeno de moda en las redes sociales. El profesor Shaolei Ren, de la Universidad de California, explicó a través de un artículo publicado en el sitio web de OECD Artificial Intelligence Policy Observator, que los modelos de IA más grandes, como los utilizados para entrenar ChatGPT, demandan enormes cantidades de energía. Estos modelos se entrenan en servidores que cuentan con múltiples unidades de procesamiento gráfico (GPU), y este proceso consume la misma cantidad de energía que una casa promedio en un año. Pero en simultáneo los servidores generan grandes cantidades de calor, lo que requiere de sistemas de refrigeración que utilizan grandes volúmenes de agua para evitar el sobrecalentamiento. A estar por las estimaciones de Ren, entrenar y ejecutar estos modelos de IA puede necesitar millones de litros de agua dulce, lo que genera una enorme presión sobre los recursos hídricos.
El estudio proyecta que para 2027 la demanda global de IA podría generar entre 4.200 y 6.600 millones de metros cúbicos de extracción de agua; sin embargo no queda claro qué impacto real produce, desde que podría suponerse que si es sólo para enfriar el sistema, no debería producir contaminación.
Por lo pronto OpenAI suspendió la función de generación de imágenes en ChatGPT para sus cuentas gratuitas, con lo que seguramente veremos cuando menos un enlentecimiento de la generación de imágenes. Esta decisión se tomó a partir de un colapso en la capacidad de procesamiento de la plataforma. La demanda superó ampliamente las expectativas iniciales. “Es muy divertido ver a la gente disfrutar de las imágenes en ChatGPT. Pero nuestras GPU se están derritiendo. Vamos a introducir temporalmente algunos límites de uso mientras trabajamos en hacer que sea más eficiente”, comentó Sam Altman, el CEO de OpenAI en su cuenta de X.
Y una tercera discusión pendiente respecto a la inteligencia artificial es la que tiene que ver con los derechos de autor y de imagen que están siendo vulnerados, en este caso de los creadores de un famoso estudio de animación japonés –mañana podrían ser dibujos al estilo Moisés Bassadone u Oscar Scotellaro–. Este caso no hace más que evidenciar que esta tecnología se nutre de las creaciones de personas, y no solo de las creaciones, también de la imagen –rostros, por ejemplo–y de otras características físicas, como voces de locutores o cantantes.
A todas luces esta tecnología debería estar generando cuando menos estas tres discusiones globales, pero por el momento parece que no, que estamos todos entretenidos pidiendo nuestros dibujitos.

