Icono del sitio Cápsula Virtual

El abandonado secreto de la inteligencia sintético | Tecnología

Acciones ya cotidianas como consultar la mejor ruta para ir a algún sitio o traducir un texto requieren grandes cantidades de medios energéticos, hidráulicos y minerales. Esas aplicaciones funcionan en la nimbo, un eufemismo para designar millones de potentes ordenadores organizados en extensos centros de datos. Para que las aplicaciones del móvil funcionen hacen yerro legiones de computadoras que almacenen billones de datos y hagan operaciones en fracciones de segundo (por ejemplo, el cálculo de distancias teniendo en cuenta el tráfico). Se estima que el consumo energético de los centros de datos supone entre el 1% y el 2% del total mundial. Pero todo apunta a que estas cifras se van a disparar.

La inteligencia sintético (IA) generativa, la que hace posible los chatbots inteligentes como ChatGPT, así como las herramientas que generan ilustraciones originales o música a partir de texto, necesita mucho poder de computación. Las grandes tecnológicas, con Microsoft y Google a la inicio, han decidido integrar estas funcionalidades en los buscadores, en los editores de texto o en el email. Nuestra relación con los programas de uso habitual va a cambiar: hasta ahora, apretábamos una serie de comandos para sufrir a final ciertas actividades; adentro de poco nos encontraremos conversando con la máquina, pidiéndole tareas que antiguamente hacíamos nosotros.

¿Qué huella tendrá en el medio bullicio este cambio de prototipo? Nadie lo sabe, pero todas las estimaciones son al subida. “La IA puede parecer etérea, pero está moldeando físicamente el mundo”, sentencia Kate Crawford en Atlas of AI. La australiana, investigadora principal de Microsoft Research y directora del AI Now Institute, alertó hace dos primaveras de que los “costes planetarios” asociados a esta tecnología no paran de crecer. Algunos científicos calculaban hace cuatro primaveras que el sector tecnológico supondría el 14% de las emisiones mundiales para 2040; otros, que la demanda energética de los centros de datos se multiplicará por 15 hasta 2030.

Todas esas previsiones pueden quedarse cortas. Son de antiguamente de la irrupción de ChatGPT. Google y Microsoft acumulan centenares de millones de usuarios. ¿Qué pasa si todos ellos empiezan a usar herramientas apoyadas en IA generativa? El canadiense Martin Bouchard, cofundador de los centros de datos Qscale, cree que se necesitaría al menos cuatro o cinco veces más potencia computacional por cada búsqueda. Preguntados por sus niveles de consumo actuales y por sus previsiones de crecimiento en la era de la IA generativa, Google y Microsoft han preferido no aportar a este diario datos concretos, más allá de reiterar su intención de alcanzar la neutralidad de carbono para 2030. Para Crawford, eso “significa que compensan sus emisiones comprando el crédito de la clan” a través de acciones de maquillaje medioambiental, como plantar árboles u otras acciones similares.

Uno de los pasillos del centro de datos que Google tiene en Douglas, Georgia (EE UU).

“La IA generativa produce más emisiones que un buscador corriente, que todavía consume mucha energía porque al fin y al final son sistemas complejos que bucean en millones de páginas web”, indica Carlos Gómez Rodríguez, catedrático de Computación e Inteligencia Sintético de la Universidad de La Coruña. “Pero la IA genera todavía más emisiones que los buscadores, porque usa unas arquitecturas basadas en redes neuronales, con millones de parámetros que hay que entrenar”.

¿Cuánto contamina la IA?

Hace un par de primaveras que la huella de carbono de la industria informática alcanzó a la de la aviación cuando estaba en su mayor. Entrenar un maniquí de procesamiento natural del jerigonza equivale a tantas emisiones como las que expulsarán cinco coches de gasolina durante toda su vida, incluyendo el proceso de fabricación, o 125 vuelos de ida y dorso entre Pekín y Nueva York. Más allá de las emisiones, el consumo de medios hídricos para la refrigeración de los sistemas (Google gastó 15.800 millones de litros en 2021, según un estudio de Nature, mientras que Microsoft declaró 3.600 millones de litros), así como la dependencia de metales raros para elaborar los componentes electrónicos, hacen de la IA una tecnología con grandes repercusiones en el medio bullicio.

Entrenar un maniquí de procesamiento natural del jerigonza equivale a tantas emisiones como las que expulsarán cinco coches de gasolina durante toda su vida

No existen datos sobre cuánta energía y de qué tipo consumen las grandes tecnológicas, las únicas con una infraestructura lo suficientemente robusta como para entrenar y proporcionar los grandes modelos de jerigonza en los que se apoya la IA generativa. Siquiera hay cifras concretas de la cantidad de agua que gastan para refrigerar los sistemas, cuestión que ya está provocando tensiones en países como EE UU, Alemania u Holanda. Las empresas no están obligadas a proveer esa información. “Lo que tenemos son estimaciones. Por ejemplo, entrenar GPT3, el maniquí en el que se sostén ChatGPT, habría generado unas 500 toneladas de carbono, el equivalente a ir y retornar a la Retrato en coche. Tal vez no es mucho, pero hay que tener en cuenta que el maniquí se tiene que reentrenar periódicamente para incorporar datos actualizados”, sostiene Gómez. OpenAI acaba de presentar otro maniquí más progresista, GPT4. Y la carrera seguirá.

Otra estimación dice que el uso que se había hecho de electricidad en enero de 2023 en OpenAI, la empresa responsable de ChatGPT, podría equivaler al uso anual de unas 175.000 familias danesas, que no son las que más gastan. “Esto son proyecciones con las cifras actuales de ChatGPT; si se generaliza todavía más su uso, podríamos estar hablando de un consumo equivalente de electricidad de millones de personas”, añade el catedrático.

Panorama aérea del centro de datos de Google de Saint-Ghislain, en Bélgica.

La opacidad de datos empezará a disiparse próximamente. La UE es consciente del creciente consumo energético de los centros de datos. Bruselas tiene en marcha una directiva que se empezará a discutir el año que viene (y, por consiguiente, tardaría al menos dos primaveras en entrar en vigor) que fija exigencias de eficiencia y transparencia energética. EE UU trabaja en una reglamento similar.

El costoso entrenamiento de los algoritmos

“Las emisiones de carbono de la IA se pueden descomponer en tres factores: la potencia del hardware que se utiliza, la intensidad de carbono de la fuente de energía que lo alimenta y la energía que se usa en el tiempo que dura el entrenamiento del maniquí”, explica Álex Hernández, investigador postdoctoral en el Instituto de Inteligencia Sintético de Quebec (MILA).

Es en el entrenamiento donde se concentran la viejo parte de las emisiones. Ese entrenamiento es un proceso esencia en el crecimiento de los modelos de enseñanza espontáneo, la modalidad de IA que más rápido ha crecido en los últimos primaveras. Consiste en mostrarle al operación millones de ejemplos que le ayuden a establecer patrones que le permitan predecir situaciones. En el caso de los modelos de jerigonza, por ejemplo, se comercio de que cuando vea las palabras “la Tierra es” sepa que tiene que proponer “redonda”.

El uso de electricidad en enero de 2023 en OpenAI, la empresa responsable de ChatGPT, equivale al uso anual de unas 175.000 familias danesas

La mayoría de los centros de datos utilizan unos procesadores avanzados llamados GPU para realizar el entrenamiento de los modelos de IA. Los GPU necesitan muchísima energía para funcionar. El entrenamiento de los grandes modelos de jerigonza requiere de decenas de miles de GPU, que necesitan efectuar día y perplejidad durante semanas o meses, según detalla un nuevo documentación de Morgan Stanley.

“Los grandes modelos de jerigonza tienen una inmueble muy prócer. Un operación de enseñanza espontáneo que te ayude a designar a quién contratar quizás necesite 50 variables: dónde trabaja, qué salario tiene ahora, experiencia previa, etcétera. GhatGPT tiene más de 175.000 millones de parámetros”, ilustra Ana Valdivia, investigadora postdoctoral en computación e IA en King’s College London. “Hay que reentrenar toda esa especie de estructura, y adicionalmente introducir y explotar los datos sobre los que se trabaja. Ese almacenamiento todavía tiene un consumo”, añade.

Hernández, del MILA, acaba de presentar un artículo en el que analiza el consumo energético de 95 modelos. “Hay poca variabilidad del hardware usado, pero si entrenas tu maniquí en Quebec, donde la mayoría de la electricidad es hidroeléctrica, reduces en un coeficiente de 100 o más las emisiones de carbono respecto a lugares donde predomina el carbón, el gas u otros”, subraya el investigador. Se sabe que los centros de datos chinos se alimentan en un 73% de electricidad generada con carbón, lo que supuso la retransmisión de al menos 100 millones de toneladas de CO₂ en 2018.

Dirigido por Joshua Bengio, cuya cuota en las redes neuronales profundas le valió el premio Turing (considerado el Nobel de la informática), el MILA ha desarrollado una aparejo, Code Carbon, capaz de evaluar la huella de carbono de quienes programan y entrenan algoritmos. El objetivo es que los profesionales la integren en su código para retener cuánto emiten y que eso les ayude a tomar decisiones.

Más capacidad computacional

Existe el problema añadido de que la capacidad de computación necesaria para entrenar los mayores modelos de IA se duplica cada tres o cuatro meses. Así lo reveló ya en 2018 un estudio de OpenAI, que todavía avisaba de que “merece la pena prepararse para cuando los sistemas necesiten unas capacidades mucho mayores a las actuales”. Es una velocidad muy superior a la que marcaba la Ley de Moore, según la cual el número de transistores (o potencia) de los microprocesadores se duplica cada dos primaveras.

“Teniendo en cuenta los modelos que se están entrenando en la contemporaneidad, sí que hace yerro más capacidad computacional para certificar su funcionamiento. Seguramente, las grandes tecnológicas ya están comprando más servidores”, augura Gómez.

Para Hernández, las emisiones derivadas del uso de la IA es menos preocupante por varios motivos. “Hay mucha investigación dirigida a disminuir el número de parámetros y complejidad de la energía que necesitan los modelos, y eso mejorará. Sin requisa, no hay tantas formas de reducirlas en el entrenamiento: ahí hace yerro semanas de uso intensivo. Lo primero es relativamente sencillo de optimizar; lo segundo, no tanto”.

Una de las posibles soluciones para que los entrenamientos sean menos contaminantes sería disminuir la complejidad de los algoritmos sin perder competencia. “¿Positivamente hacen yerro tantos millones de parámetros para conquistar modelos que funcionen correctamente? GhatGPT, por ejemplo, ha demostrado tener muchos sesgos. Se está investigando la forma de conquistar los mismos resultados con arquitecturas más simples”, reflexiona Valdivia.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para acoger nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



Creditos a Manu González Pascual

Fuente

Salir de la versión móvil