Durante largo tiempo hemos interactuado con bots, o sistemas que automatizan procesos: esa incesante voz robótica que nos guía a través de los menús telefónicos, o incluso los chats de servicios al cliente. Sin embargo, la irrupción de los modelos de lenguaje, como chatGPT y similares, ha acelerado la adopción de estos sistemas de cara al consumidor.
Veamos algunos ejemplos: ciertas cadenas de comida rápida, como Wendy’s, se encuentran en la búsqueda de optimizar sus tiempos de atención mediante inteligencia artificial (IA). McDonald’s, en un intento de prueba, ha automatizado una de sus tiendas, aunque la interacción humana ya había disminuido hace años: el hecho de efectuar tu pedido a través de una pantalla táctil gigante en el restaurante, al mismo tiempo que asombra, genera cierto temor.
Se sugiere que la interacción con chatbots será algo a lo que debemos acostumbrarnos, pero ¿debería ser así? Emitir un juicio definitivo es complicado, debido a la cantidad de factores en juego. Por un lado, podemos reflexionar desde la perspectiva de los dueños de empresas y emprendedores, sean megacorporaciones o pequeños negocios. Por otro lado, tenemos el aspecto humano, los empleados que podrían ser reducidos a un simple número. Finalmente, el usuario, el cliente, que espera un servicio oportuno y eficiente.
¿Cómo encontramos el equilibrio?
No estoy seguro de que exista tal, ya que inclinarse por una opción u otra es muy difícil. Dukaan, una startup india, anunció el despido del 90 % de su personal de atención al cliente para reemplazarlos con IA4. Desde la perspectiva de los empleados, por supuesto, esto es desagradable. Sin embargo, el CEO de la compañía comunicó que esta decisión incrementó la productividad en atención al cliente, reduciendo el tiempo de resolución de casos satisfactorios de 2:13 horas a 3:12 minutos. Además, el costo del área se redujo en un 85 %. Entonces, ¿acaso no ganan el cliente y la empresa? Parece un 2 a 1, ¿qué hacer en esta situación?
Este ejemplo nos muestra el dilema al que nos enfrentaremos de ahora en adelante, donde desde cualquier trinchera deberíamos tomar una postura o decisión. Como empresario, Suumit Shah, el CEO de Dukaan, está apostando por su negocio, buscando la satisfacción del cliente y la eficiencia. Como cliente, puedo estar más feliz al recibir una atención más rápida y certera. Entonces, ¿deberíamos, en uno de esos bandos, aceptar que no haya humanos de por medio?
¿Y qué sucede con los empleados despedidos? Por supuesto, para ellos la noticia es desalentadora. Por muy azucarada que se presente, han perdido su fuente de ingresos. Pero, ¿cómo competir contra un sistema que lleva a cabo su trabajo con tal rapidez? y mas importante aún ¿Si los consumidores del sistema se quedan sin ingresos ¿Cómo continuiran consumiendo y de donde obtendrán sus ingreos? No parece un modelo muy sostenible, ya que se carga sus propias bases.
Retornamos a la pregunta inicial: ¿existe un punto medio?
Sinceramente, vuelvo a responder que no. Juzgar es complicado. ¿Cómo criticar a una empresa que busca ser rentable? Quizás podríamos invocar el famoso “el fin justifica los medios“, algo que usan como razón tanto explotadores como tiranos y genocidas, pero en el fondo de todo está el legítimo deseo de prosperar como empresa aunque sea a costa del medio ambiente, la explotación y la propia sostenibilidad del sistema, entregando un producto de calidad al usuario. Sin embargo, ¿eso hace permisible que haya humanos como daño colateral? No debería.
La filosofía desde la ética tiene mucho que aportar, aprender y valorar en esta discusión. Aunque todavía no sabemos dónde establecer la medida, visceralmente es fácil criticar a las empresas que prescinden de los humanos. Claro, esto pone en riesgo no solo a los despedidos, sino a todos nosotros, ya que una vez que se inicia el camino, este se traza; pero también existen otros factores que convergen, chocan y crean un punto de quiebre complejo donde los términos “ganadores” y “perdedores” quedan muy difusos.
Se ha propuesto utilizar la IA como “asistente“, lo cual podría ser interesante para mitigar el desplazamiento laboral, pero ¿es realmente rentable a largo plazo? Por supuesto que no. Estas herramientas implican un costo adicional, y con el avance de la IA, seguramente llegará un punto en el que el departamento de finanzas tendrá que decidir entre una opción u otra, y siendo simplistas y no mirando a futuro, los bots son más baratos que los humanos pero, los bots no mantienen familias, pensiones, el sistema y el estado, lo que conlleva el inevitable colapso de estos. Por ende, tanto robots como bots conllevan un alto coste energético que se ha eliminado de la ecuación por ser incomodo y poco atractivo a la hora de valorar las consecuencias y rentabilidades, la energia que consume realmente esta técnologia supera con creces a los costes del trabajo humano, como veremos mas adelante.
La huella ecológica de la Inteligencia Artificial: ¿cuánto consume y contamina esta tecnología?
La mal llamada Inteligencia Artificial que ni es inteligente ni es artificial es uno de los temas más candentes actualmente, fuera y dentro del ámbito tecnológico. Desde la irrupción de la herramienta ChatGPT en 2022, la IA generativa ha estado en el centro de todas las conversaciones, aumentando su popularidad exponencialmente y convirtiéndose en una aliada para muchas tareas del día a día. Si bien es una tecnología revolucionaria en muchos aspectos (permite la automatización de infinidad de procesos, la personalización de mensajes, la creación de contenidos originales, etc), también demanda una enorme cantidad de recursos para su desarrollo, implementación y funcionamiento.
En términos generales, la huella ecológica de la IA abarca diversos aspectos, desde la energía requerida para alimentar los centros de datos donde se ejecutan los algoritmos hasta la extracción de materiales para la fabricación de dispositivos hardware especializados. Estos recursos incluyen electricidad, agua, metales y otros materiales.
Uno de los mayores consumidores de recursos dentro del ámbito la IA es el entrenamiento de modelos de deep learning y machine learning, que implica procesar enormes conjuntos de datos a través de algoritmos complejos. Esto supone la inversión de una gran cantidad de energía y tiempo de computación, lo que se traduce en emisiones de carbono significativas, especialmente cuando se utilizan servidores y sistemas de refrigeración intensivos.
¿Cuánta energía y recursos consume la IA?
Medir el impacto medioambiental es complejo, porque, en primer lugar, la inteligencia artificial está siendo desarrollada por multitud de empresas y aplicada en infinidad de sectores; y en segundo lugar, porque existe cierta opacidad sobre este tipo de avances tecnológicos (las grandes compañías no están obligadas a rendir cuentas ni dar información sobre el consumo de energía y recursos que implica la IA). Pese a ello, existen diversos estudios que ofrecen algunos datos.
Según datos de la Asociación de Maquinaria Computacional (ACM), las tecnologías de la información y comunicación (TIC) producían en 2021 entre el 1,8% y el 3,9% de las emisiones mundiales de carbono, una cifra que con toda seguridad habrá aumentando en los últimos años. Solo en Estados Unidos, los centros de datos suponen el 1,8% del consumo eléctrico del país.
Según la estimación realizada en 2020 por Payal Dhar, y publicada en la prestigiosa revista Nature, la huella de carbono de entrenar a un solo gran modelo lingüístico como ChatGPT equivale a unas 300 toneladas de dióxido de carbono emitido (equivalente a la que podría emitir un español promedio en 60 años).
Uno de los primeros informes que se realizaron sobre la huella de la IA, firmado por un equipo de la Universidad de Massachusetts Amherst, señaló que entrenar un gran modelo de lenguaje natural, como ChatGPT, produce las mismas emisiones de CO2 a la atmósfera que 125 vuelos de ida y vuelta de Nueva York a Pekín. Otro estudio de la Universidad de Copenhague reveló que en una sola sesión de entrenamiento se utiliza el equivalente al consumo energético de un año de 126 hogares daneses, y se emite la misma cantidad de CO2 que 700.000 kilómetros de conducción.
Pero no solo las emisiones de gases de efecto invernadero son parte de la huella ecológica que deja la IA, también los recursos hídricos que consume se deben tener en cuenta. Los servidores necesitan agua para refrigerarse: solo el entrenamiento de una inteligencia artificial como ChatGPT o similar puede consumir más de 700.000 litros de agua dulce limpia en los centros de datos. Esta cantidad es la equivalente a la necesaria para fabricar más de 350 vehículos de alta gama, o para llenar una torre de refrigeración de una central nuclear, como apuntan algunas investigaciones.
Posibles soluciones para reducir el impacto
En este contexto, es fundamental conocer el impacto que tiene la IA en el medio ambiente. Algunas empresas ya están buscando soluciones para tratar de reducir las emisiones y el gasto de recursos, así como para mitigar las consecuencias de la puesta en marcha de de este tipo de tecnologías. Un ejemplo es la startup Hugging Face, que nació en 2022 y es capaz de estimar de forma precisa las emisiones producidas durante todo el ciclo de uso del modelo de IA y no solo durante el entrenamiento.
La compañía calculó que el entrenamiento de BLOOM (su propio modelo de lenguaje) generó 25 toneladas métricas de emisiones de CO2, como apunta un artículo del MIT. Pero, según los investigadores, esa cifra se duplicó cuando se tuvieron en cuenta las emisiones producidas por la fabricación del equipo informático utilizado para entrenarlo, la infraestructura computacional más amplia y la energía requerida para ejecutar BLOOM después de entrenarlo.
Paradójicamente, otras empresas, que van desde agencias hasta consultoras, han desarrollado calculadoras basadas en IA que calculan la huella de carbono de campañas publicitarias o de proyectos concretos. Si bien la IA requiere numerosos recursos para funcionar, también puede ayudar a hacer más eficientes los procesos en múltiples sectores, permitiendo así a las empresas a ser "un poco más sostenibles" (sarcasmo). Por ejemplo, GroupM hace tiempo que desarrolló una calculadora que mide la huella de carbono de sus campañas, y Scope3 tiene la misión de descarbonizar una industria tan grande y omnipresente como la de la publicidad digital, mediante herramientas y soluciones que permitan el ahorro de recursos y la optimización de la cadena publicitaria (esto es como talar un bosque para construir un parque).
Adelantando datos:
Las emisiones de carbono de Google aumentaron un 48% en cinco años debido al auge de la inteligencia artificial (IA), evidenciando uno de los principales problemas del fulgurante desarrollo de esta tecnología: su voraz consumo de energía.
Los modelos de lenguaje en los que se basan las IA generativas necesitan una capacidad de cálculo enorme para entrenarse utilizando miles de millones de datos, lo que requiere servidores potentes.
Luego, cada vez que un usuario envía una consulta a ChatGPT o a cualquier otra IA generativa hace funcionar servidores situados en un centro de datos.
Estos servidores consumen electricidad, se calientan y es necesario refrigerarlos con sistemas que a su vez requieren energía.
Según la Agencia Internacional de la Energía (AIE), los centros de datos emplean generalmente alrededor del 40% de su electricidad para alimentar los servidores y el 40% para enfriarlos.
Varios estudios señalan que una consulta a ChatGPT requiere de media 10 veces más energía que una simple consulta al motor de búsqueda de Google.
El auge de la IA desde 2022 llevó a gigantes de Internet, como Amazon, Google y Microsoft, a invertir masivamente en la creación de centros de datos en todo el mundo.
En su informe medioambiental, Google destaca el aumento del consumo de energía en sus centros de datos, así como el repunte de las emisiones vinculadas a la construcción de nuevos centros de datos y a la modernización de los ya existentes, o la construcción de nuevas centrales nucleares contaminantes y peligrosas para abastecer de energia los nuevos centros de AI.
¿Cuánta energía consume la IA?
Antes de la fiebre de la IA, los centros de datos representaban en torno al 1% del consumo mundial de electricidad, según la AIE.
Si se suman la IA y el sector de las criptomonedas, los centros de datos consumieron casi 460 Twh de electricidad en 2022, es decir el 2% de la producción mundial total, según la institución.
Esta cifra podría duplicarse en 2026 hasta alcanzar los 1.000 Twh, lo que equivaldría al consumo eléctrico de Japón, advierte en un informe.
Alex de Vries, economista de la Universidad Libre de Ámsterdam, elaboró un modelo del consumo eléctrico necesario sólo para la inteligencia artificial basándose en proyecciones de ventas de la empresa Nvidia, cuyos procesadores son esenciales para entrenar modelos de IA.
Si las estimaciones de ventas de Nvidia para 2023 son correctas, y si todos los servidores funcionan al máximo de su capacidad, podrían consumir entre 85,4 y 134 Twh al año, lo que consume un país como Argentina, escribe en un artículo.
"Las cifras que puse en mi artículo eran bastante prudentes al principio porque no tienen en cuenta procesos como las necesidades de refrigeración", declaró a AFP.
El año pasado, las ventas de Nvidia superaron sus previsiones, por lo que las cifras podrían ser aún mayores, añadió.
Los analistas de Wells Fargo sugirieron que la demanda de electricidad en Estados Unidos podría aumentar un 20 por ciento para 2030, en parte debido a la IA. Los cálculos son exponenciales, a pesar de que no están todas las variables en la ecuación. ¿Es la IA una amenaza para el planeta y la humanidad? SI, pero no como en las peliculas nos muestran, y que trataremos mas adelante.
¿Cómo gestionan los centros de datos esta mayor demanda de energía?
La IA va a transformar el sector de los centros de datos, reconoce Fabrice Coquio, de la empresa Digital Realty, que gestiona un enorme centro de datos en las afueras de París, parte del cual estará consagrado a la IA.
"Será exactamente como la nube (servicios informáticos desmaterializados), quizás un poco más masiva en términos de despliegue", explicó a AFP durante una visita de las infraestructuras en abril.
Mientras que los servidores con una potencia de cálculo media pueden colocarse en salas con sistemas de aire acondicionado, aquellos mucho más potentes necesarios para la IA tienden a calentarse más y requieren bombear agua directamente a los equipos para enfriarlos, explicó Coquio.
"Sin duda, esto requiere servidores, equipos de almacenamiento y comunicaciones diferentes", insistió.
¿Cómo actúan los gigantes de internet?
En un momento en el que los gigantes de la tecnología buscan incorporar cada vez más inteligencia artificial a sus productos, a pesar de que no es rentable, pues deben pagar mucho por ella y no la pueden vender, sino ofrecer gratuitamente al consumidor, nadie se pregunta por qué, simplemente los expertos temen que haya una explosión en el consumo de electricidad.
Al igual que Google, las emisiones de carbono de Microsoft, número dos mundial de la nube, aumentaron un 30% en 2023 con respecto a 2020.
Si bien Google, Amazon y Microsoft destacan su inversión en las "energías renovables" fabricadas y producidas con combustibles fósiles y materiales altamente contaminantes para alimentar sus centros de datos, sus objetivos de neutralidad carbono parecen alejarse.
Sin embargo, AWS (la nube de Amazon) se comprometió a convertirse en una empresa con cero emisiones de carbono para 2040, mientras que Google prevé lograr lo mismo en todas sus actividades para 2030.
Microsoft se puso como objetivo un balance de carbono negativo también para 2030. Una promesa que hizo antes de la explosión de la IA, reconoció en mayo su presidente, Brad Smith, en una entrevista en Bloomberg.
Fuentes:
filosofiaenlared.com/2024/02/la-humanidad-frente-a-la-ia
programaticaly.com/portada/huella-ecologica-inteligencia-artificial-cuanto-consume
ojoalclima.com/articles/por-que-consume-tanta-energia-la-inteligencia-artificial
Inteligencia artifical: una visión anarquista (publicación de pensamiento contra la máquina)(2024)