logo

La IA y su impacto en el medio ambiente

Este informe tiene carácter divulgativo, pues se espera que su audiencia sea cualquier persona que utiliza sistemas basados en IA en su día a día sin necesidad de comprender el funcionamiento interno de la tecnología. El informe se centra en IA generativa, la más extendida hoy en día entre el público general. En él aprenderás cómo usar la IA de forma responsable con el medioambiente. Cuando termines podrás probar tus conocimientos en una Escape Room en la que tendrás que obtener un código secreto antes de que se termine el tiempo y la energía…

CONSUMO IA

Para finales de 2025 se estima que la IA consumirá el doble de energía que los Países Bajos

Fuente: The Guardian

La inteligencia artificial (IA) generativa se está convirtiendo en una de las herramientas más transformadoras de nuestro tiempo. Permite resolver tareas cotidianas y complejas, aumenta la eficiencia en múltiples sectores y promete acelerar el desarrollo de la humanidad a un ritmo nunca visto. Sin embargo, junto a estas oportunidades también aparecen desafíos importantes como su impacto en el mercado laboral, la disminución de nuestras capacidades cognitivas, la desinformación, o el aumento de la brecha económica entre países con acceso a la tecnología. Sin embargo, existe un impacto menos visible y quizá más difícil de percibir por el usuario (aunque como veremos, desempeña un papel importante): el impacto medioambiental. Entrenar y mantener los sistemas de IA requiere enormes cantidades de energía y recursos naturales, lo que plantea preguntas urgentes sobre sostenibilidad. Comprender esta dimensión es clave para aprovechar la IA sin poner en peligro el equilibrio del planeta.

¿Por qué la IA Generativa tiene un impacto en el medioambiente?

Cualquier sistema de inteligencia artificial funciona en dos fases principales. Para explicarlo, se presenta el caso de un chatbot, pero sería muy similar para cualquier tipo de IA:

  1. Fase de entrenamiento. El modelo aprende a partir de enormes cantidades de texto y datos, detectando patrones y relaciones entre palabras y conceptos. Es como si estuviera leyendo millones de libros y artículos para comprender cómo se construyen las frases y cómo se conecta la información. Como resultado se obtiene un sistema que es capaz de responder preguntas. Esta fase solo se ejecuta una vez, pero puede durar mucho tiempo. El resultado final es un “programa” (llamado modelo) que se puede instalar en máquinas que tengan los recursos suficientes para ejecutarlos. Los chatbots más populares (ChatGPT, Gemini, Grok) se ejecutan en centros de datos de grandes dimensiones, pero hay modelos que podemos ejecutar en ordenadores personales potentes.
  2. Entrenamiento GPT-4

    Los modelos más potentes han tardado varios meses en entrenarse. Se estima que GPT-4 tardó unos 100 días en los que ejecutó alrededor de 1025 operaciones matemáticas utilizando 25.000 GPU.

    Fuente: Dylan Patel y Gerald Wong en Semianalysis.com

  3. Fase de inferencia. El modelo entrenado se instala en centros de datos para poder atender a todos los usuarios. En realidad, no se instala un único modelo, sino que hay muchas versiones de este ejecutándose en paralelo para poder atender a todos los usuarios. Cuando un usuario realiza una pregunta (inferencia) el modelo se ejecuta y responde con el conocimiento que ha adquirido en la fase de entrenamiento, o consultando fuentes externas en el caso de que esté conectado a Internet. Por ejemplo, si le preguntamos sobre recetas de cocina, combina su conocimiento previo para dar instrucciones claras paso a paso. Todo ocurre en tiempo real, como un “diálogo” adaptado a lo que se le solicita. Al contrario que la fase de entrenamiento, la de inferencia se ejecuta tantas veces como sea necesario para obtener la respuesta.

Tanto el entrenamiento como la inferencia suponen un impacto medioambiental, aunque a diferentes escalas:

¿Quién?
¿Qué actores producen más impacto?
¿Por qué?
¿Por qué necesita la IA esa cantidad de recursos?
¿Dónde?
¿Dónde se produce el consumo de recursos y energía?
¿Cuándo?
¿En qué momento se produce el mayor consumo?

Colossus

En 2024 xAI (empresa fundada por Elon Musk y desarrolladora del modelo Grok) construyó el centro de datos Colosus, conviertiéndose en el más grande del mundo en solo 122 días, compuesto por 100.000 GPU. Recientemente dobló su tamaño y ahora contiene unas 200.000 GPU.

Fuente: xAI

Centros de datos

La Agencia Internacional de Energía estima que el consumo eléctrico de los centros de datos se duplicará para 2030, llegando a ser equivalente al consumo total actual de Japón.

Fuente: Agencia Internacional de Energía (IEA)

Usuarios de ChatGPT

ChatGPT tardó 2 meses en conseguir 100 millones de usuarios, mientras que otras aplicaciones como Instagram necesitaron 26 meses.

Fuente: Xataka

Cómo medir el impacto de la IA

Consumo de agua

Diferentes noticias mencionan que generar una sola imagen con IA puede suponer hasta 5 litros de agua. Se utiliza el agua como medida de impacto medioambiental porque es algo que todo el mundo comprende, pero es importante destacar que el impacto no se limita al consumo de agua.

Fuente: Cadena SER

Medir el impacto medioambiental de cualquier tecnología no es sencillo, ya que afecta a muchas dimensiones diferentes. Habitualmente, se habla de energía consumida, es decir, la potencia necesaria para ejecutar los modelos multiplicada por el tiempo de funcionamiento. Esta información es la misma que se obtiene en la factura de la luz del hogar. A menudo también se utiliza la medida de kg de CO₂ equivalentes, que estima la cantidad de dióxido de carbono liberado para generar esa electricidad. Este cálculo depende de la fuente de energía: un país con predominio de energías renovables tendrá emisiones mucho menores que otro que dependa principalmente de energías no renovables como el carbón. Sin embargo, el impacto de la IA no se limita al consumo de energía. Hay que considerar todo el ciclo de vida del producto y los actores implicados. Algunos aspectos importantes incluyen:

I.A. Consumo de aguaHuella de carbonoExtracción de mineralesGestión de residuos

Impacto de la IA

Noticias recientes

indican que Google no ha tenido en cuenta aspectos relevantes a la hora de hacer las medidas de consumo de sus modelos.

Fuente: The Verge

Este informe se centra en el impacto en el uso de la IA y no en el entrenamiento, pues ése es el impacto que depende del uso de las personas. Para conocer el impacto que tiene la IA generativa es necesario comprender un aspecto básico de su funcionamiento. La IA no genera todo el contenido a la vez, sino que genera palabra a palabra (en realidad fragmentos de palabra que en el mundo de la IA se conocen como tokens). Esto es relevante, dado que para generar un texto de 1.000 tokens necesitas ejecutar el modelo 1.000 veces. Recientemente han surgido trabajos de las propias empresas que desarrollan los modelos en los que han evaluado su impacto medioambiental. Por ejemplo, Google estima que una consulta textual a Gemini supone la misma energía que ver la televisión durante 9 segundos. En un estudio similar en Mistral obtuvieron que generar una página de texto con el modelo Large 2 supone el mismo consumo que ver una serie en streaming en EEUU por 10 segundos. Medir todos los factores que producen un impacto medioambiental es un reto tecnológico complejo; de hecho, no existe un consenso sobre la magnitud exacta del efecto que tiene la IA sobre el planeta.

IA vs Cerebro

Aunque las IA son muy grandes, todavía están lejos del tamaño de nuestro cerebro, el cual está compuesto por unos 100 billones de sinapsis.

Un aspecto fundamental para conocer el impacto medioambiental de la IA es el tamaño de los modelos. Existe una gran variedad de tamaños que abarcan desde pocos miles de millones de parámetros hasta 1-2 billones de parámetros. Normalmente cuanto más grande es el modelo mayor es su calidad, pero también consume más al necesitar más servidores y GPU para ejecutarlos.

Energía (100 token in → 300 token out)

Cargando...

Presente y futuro

Proyectos sostenibles

En 2024 Google inició un proyecto para capturar el calor producido por un centro de datos y reutilizarlo para calentar viviendas y negocios cercanos en Hamina, Finlandia.

Fuente: Google

Aunque los modelos de inteligencia artificial consumen energía, hay que tener en cuenta que cada vez son más eficientes y que la tecnología que los soporta también ha mejorado mucho. Hoy en día, existen modelos más pequeños que se pueden ejecutar incluso en ordenadores personales con recursos suficientes, aunque no suelen ser los que se usan habitualmente para tareas más complejas o a gran escala. Esto significa que, en teoría, se podría reducir el consumo energético usando versiones más ligeras, pero la práctica diaria suele requerir modelos grandes que exigen más energía. Además, se han desarrollado avances importantes para ahorrar energía en la infraestructura. Por ejemplo, los centros de datos incorporan sistemas de refrigeración avanzados, reutilizan el calor generado mediante baterías térmicas y utilizan servidores más eficientes que consumen menos electricidad para el mismo procesamiento. No obstante, a pesar de las mejoras en eficiencia, el uso de la inteligencia artificial está creciendo de manera acelerada, lo que eleva tanto su utilización como su impacto ambiental. Entre los principales factores que incrementan el consumo energético se encuentran:

  • Mayor demanda de inferencias. Las nuevas versiones de los modelos incorporan capacidades de razonamiento más avanzadas que realizan procesos más complejos, traducidos en mayor número de tokens (inferencias), lo que requiere más cálculos y, por ende, más energía. Algunos modelos actuales pueden estar ejecutándose durante minutos o incluso horas para dar un único resultado. Esto incrementa de forma considerable el tiempo de ejecución del modelo.
  • En esta interacción con GPT-5 sin el razonamiento activado tarda menos de un segundo de ejecución, pero el resultado es erróneo (arriba). Con el razonamiento activado (abajo) tarda 8 segundos y ahora la respuesta sí es correcta.

  • Agentes. Los agentes son sistemas que no solo generan contenido, sino que también interactúan con su entorno para alcanzar objetivos más complejos. Actualmente, existen agentes que permiten a la IA navegar por Internet y elaborar informes a partir de la información obtenida, así como agentes que asisten a los programadores en la escritura de código. Estos agentes requieren ejecutar los modelos durante períodos prolongados, ya que deben realizar múltiples interacciones para completar sus tareas de manera efectiva.
  • OpenAI

    limitó el número de imágenes a generar con su plataforma tras hacerse viral la generación de imágenes al estilo Studio Ghibli

    Fuente: OpenAI

  • Multimodalidad. La generación de contenido más allá del texto, como imágenes, audio o vídeos, demanda un consumo energético significativamente mayor. Por ejemplo, un vídeo se compone de cientos o miles de fotogramas y producirlo puede requerir decenas o incluso cientos de veces más energía que generar un texto de tamaño comparable.

El rol de los usuarios: guía de buenas prácticas

Los usuarios no tienen control directo sobre el impacto medioambiental derivado del desarrollo de la tecnología, pero sí pueden influir en su uso. Del mismo modo que la sociedad ha tomado conciencia sobre reducir el desperdicio de papel o limitar el uso de plásticos, también es posible fomentar un uso de la inteligencia artificial más eficiente y respetuoso con el medio ambiente. Algunas prácticas sencillas que, aplicadas de forma generalizada, pueden marcar la diferencia son:

  1. Usar la IA solo cuando sea necesario. Muchas veces se recurre a la IA para tareas muy simples, como redactar un correo breve, cuando hacerlo manualmente ahorraría energía y mantendría nuestras propias habilidades activas. Además, algunos estudios señalan que delegar constantemente en la IA puede tener un impacto negativo en nuestras capacidades cognitivas.
  2. #Sostenibilidad Generativa

    Un estudio del proyecto #SostenibilidadGenerativa muestra que en más del 75% de los casos las personas consideran adecuadas las respuestas de modelos más pequeños, sin necesidad de recurrir a versiones más grandes.

    Fuente: Arena Energy (#SostenibilidadGenerativa)

  3. Elegir el modelo más eficiente para cada tarea. El mejor modelo no siempre es el más grande o potente, sino aquel que resuelve la tarea consumiendo la menor cantidad de energía. A menudo, los modelos más pequeños ofrecen resultados suficientes para las tareas cotidianas. Además los modelos más pequeños responden más rápido que los modelos de razonamiento avanzados. Actualmente los desarrolladores de modelos están integrando sistemas que deciden cuál es el mejor modelo para cada caso, por lo que se espera que en los próximos meses sea algo automático, aunque no está de más saberlo.
  4. Reducir la información de entrada. No solo importa lo que la IA genera, sino también lo que le proporcionamos como entrada. Cargar al modelo con información excesiva, como un PDF de 1.000 páginas, consume mucha más energía que formular una pregunta directa o aportar únicamente el fragmento necesario.
  5. Consejo

    Dar las gracias a los chatbots supone un consumo de energía innecesario, ya que un modelo no se enfada porque no les digas gracias. Este ejemplo ilustra cómo pequeños hábitos, multiplicados por millones de usuarios, pueden tener un impacto significativo.

    Fuente: The New York Times

  6. Ajustar el nivel de detalle necesario. No siempre se requiere una explicación extensa o técnica. Indicar el nivel de profundidad deseado (“responde en 3 frases” o “resumen breve”) ayuda a reducir el cómputo. Los modelos suelen extenderse innecesariamente en sus explicaciones.
  7. Limitar el contenido multimedia. Como se mencionó anteriormente, generar imágenes, audio o vídeo requiere mucha más energía que producir solo texto. Por ello, conviene recurrir a formatos multimedia únicamente cuando aporten un valor añadido real.
  8. Reutilizar resultados previos. Antes de volver a preguntar algo, revisa si ya obtuviste esa información en una interacción anterior. Esto evita ejecuciones innecesarias.
  9. Evitar pedir múltiples versiones de lo mismo. Muchas veces se solicita “dame 10 opciones” cuando con 2 o 3 ejemplos basta. Cada versión adicional implica más procesamiento y, por lo tanto, más energía.
  10. Aprovechar herramientas de búsqueda tradicionales cuando sea suficiente. Para ciertas consultas rápidas (definiciones, datos muy concretos, conversiones de unidades), un buscador clásico puede ser mucho más eficiente que invocar un modelo de IA.
  11. Formarse en IA. Aprender a formular buenas preguntas (prompt engineering) evita intentos fallidos o repetidos, lo que también reduce el número de interacciones necesarias.

Ya eres un experto en utilizar la IA de forma responsable con el medioambiente. Pon a prueba tus habilidades en la Escape Room del proyecto #SostenibilidadGenerativa. En este reto interactivo aplicarás los trucos de uso eficiente de la IA mientras intentas descifrar un código de seguridad y escapar antes de que se agote el tiempo y la energía.