
mim.girl/Shutterstock
Cefe López Fernández, Consejo Superior de Investigaciones Científicas (CSIC)
Mientras le pedimos a la inteligencia artificial (IA) que nos eche una mano para resolver el cambio climático, su propia huella de carbono se está disparando. Y es que, aunque nos ayuda a diseñar fármacos, optimizar las redes eléctricas y predecir desastres naturales, esta tecnología tiene un coste oculto y desmesurado.
El problema es su apetito. El entrenamiento de un modelo como GPT-3, hoy ya superado, requirió unos 1300 MWh, la energía equivalente al consumo de más de 120 hogares en un año. Y eso es solo el entrenamiento: su uso diario es aún más demandante. Se estima que las consultas a ChatGPT pueden requerir diez veces más energía que una simple búsqueda en Google y ascienden a 1 000 MWh cada día en el mundo.
Este consumo es tan colosal que los gigantes tecnológicos están tomando medidas drásticas. Microsoft, Alphabet (Google) y Amazon han firmado acuerdos para comprar energía de plantas nucleares, asegurando el flujo de vatios para sus centros de datos. La IA está sedienta de energía, y esto es solo el principio.
Atasco en la computación moderna
¿Por qué la IA consume tanto? La respuesta está en la arquitectura de nuestros ordenadores, diseñada hace décadas. El problema se conoce como el cuello de botella de von Neumann: el incesante tráfico de datos entre la memoria (donde esperan los datos) y el procesador (donde son procesados). Es como si un cocinero solo pudiera agarrar un ingrediente de la nevera cada vez: pasaría más tiempo yendo y viniendo que cocinando. Este “atasco” genera latencia y, sobre todo, un calor inmenso por la disipación de energía.
Durante décadas, la Ley de Moore nos salvó: la tecnología pudo duplicar el número de transistores en un chip cada dos años y, con ello, acercar los componentes –los ingredientes de esa cocina–. Pero estamos llegando al límite físico. Apilar más y más componentes en un chip 3D reduce la superficie disponible para refrigerarlo.
La computación electrónica se está “cociendo” en su propio éxito. La diferencia con el cerebro humano es abrumadora: con el consumo de energía equivalente a lo que gasta una bombilla pequeña puede superar a computadoras poderosas que derrochan ingentes cantidades de potencia.
Más agua y más residuos
Y no es solo energía. La refrigeración de estos centros de datos devora millones de litros de agua. Un centro de datos promedio puede usar 9 litros de agua limpia por cada kW h de energía.
A esto se suma el ciclo de vida del hardware: la rápida obsolescencia de los chips y servidores genera una montaña creciente de residuos electrónicos. Por si fuera poco, su fabricación depende de la extracción de minerales escasos, a menudo, en condiciones de dudoso respeto a los derechos humanos.
Entre el fin y los medios
Entonces, la IA ¿es el problema o solución? Aquí reside la gran paradoja. A pesar de su huella, la IA es también una herramienta crucial para la sostenibilidad.
La misma tecnología que consume energía de forma voraz es la que usamos para optimizar las redes eléctricas, gestionando la intermitencia de las renovables, y para crear una “agricultura de precisión” que reduce drásticamente el uso de agua y fertilizantes. Además, nos permite predecir desastres naturales con mayor antelación y diseñar medicinas o nuevos materiales sostenibles, al tiempo que optimiza las rutas de transporte para reducir emisiones.
La IA puede facilitar 134 de las 169 metas de los Objetivos de Desarrollo Sostenible de la ONU, si bien puede inhibir 59. La pregunta no es si usarla o no, sino cómo podemos hacerla sostenible.
El futuro “verde”: fotones y nanotecnología
Aunque ya se avanza en modelos más “ligeros” (mediante técnicas como la “poda” o el “destilado”) la solución no vendrá solo de optimizar el software. La verdadera revolución debe ocurrir en el hardware.
Aquí es donde entran en juego la nanotecnología y nuevos paradigmas de computación, como la computación en memoria, que busca vencer el cuello de botella de von Neumann diseñando chips que unen procesamiento y memoria en el mismo dispositivo; los “memristores” son un ejemplo de esta tecnología.
Otra idea aún más radical es la revolución fotónica, que propone dejar de usar electrones y empezar a usar fotones (partículas de luz). Al no tener masa ni generar calor por fricción, un procesador fotónico podría ser miles de veces más eficiente.
Finalmente, se explora la computación analógica: a diferencia de los chips digitales (que operan con 0 y 1), estos sistemas se inspiran en la física de los sistemas naturales para procesar información de forma más fluida, similar a nuestro cerebro.
Retos por recorrer
El camino hacia una IA sostenible no es solo un desafío técnico: es una cuestión de gobernanza. Iniciativas como el Programa Nacional de Algoritmos Verdes en España son un primer paso. Necesitamos una visión holística que combine innovación tecnológica, regulación proactiva y una profunda conciencia social y política.
Hablamos de una tecnología que tiene el potencial de transformar nuestro mundo, pero solo si lo hace sin consumir el planeta en el proceso.
Cefe López Fernández, Profesor de Investigación (materiales fotónicos), Consejo Superior de Investigaciones Científicas (CSIC)
Este artículo fue publicado originalmente en The Conversation. Lea el original.
Cambio Político Opinión, análisis y noticias