Reconozco que mi primera reacción al descubrir la existencia de esta pseudo disciplina dentro de la inteligencia artificial fue una gran sonrisa que rápidamente se transformó en la viva imagen de la incredulidad cuando comencé a investigar sobre ello. Después de varias lecturas y conociendo como conozco los algoritmos de machine learning (ML) sigo cuestionándome hasta qué punto pueden tener razón no sólo por las implicaciones medioambientales, sino sobre todo por las sociales y hasta de seguridad que conllevan sus argumentos. Pero ¿qué es eso de pintar de verde la inteligencia artificial? ¿hemos caído también nosotros en la moda de añadir etiquetas como "ecológico", "medioambiental" o "verde" a todos los productos y servicios?, ¿hay algo más en el fondo?.
Por IA verde se entiende el uso de la IA de una forma respetuosa con el medioambiente, tratando de que al utilizarla causemos el menor daño posible a la naturaleza. El concepto nace de un estudio desarrollado por las universidades de Washington, Carnegie Mellon y el Instituto Allen para la IA que ponen de manifiesto los importantes recursos de cómputo que son necesarios para que los algoritmos más desarrollados tengan cada vez mejores métricas. Para entrenar estos modelos son necesarios cada vez mayores cantidades de datos y capacidad de cómputo lo que se traduce en un incremento nada desdeñable de la huella de carbono que provocan los centros de datos que los procesan.
Además del incremento de las emisiones de carbono, el estudio plantea que el alto coste de entrenar estos algoritmos podría provocar que estudiantes, académicos e investigadores (en especial de economías emergentes) no pudieran acceder a estos recursos de cómputo lo que provocaría la aparición de investigaciones de primera y segunda categoría en el entorno de la IA con lo que esto conlleva. Este extremo puede causar una fragmentación importante entre países con mayores o menores recursos creando 2 tipos de científicos de datos; los desarrolladores que tienen el conocimiento top y los seguidores que lo consumen. Las implicaciones pueden ser importantes dado que la implantación de la IA es cada vez mayor sobre todo en determinados sectores como el financiero, marketing y sanitario. A otros niveles como el relacionado con la seguridad nacional puede ser crítico ya que cualquier estado que no dedique los suficientes recursos a su defensa (y la IA tiene un campo de aplicación muy importante en la ciberseguridad) está abocado a depender de otros para su defensa e incluso a su exposición total con lo que ello conlleva.
Países como China disponen de cantidades ingentes de datos, tomadas de sus ciudadanos a los que no hace falta pedirles autorización, para optimizar sus aplicaciones de IA y algoritmos de ML lo que les da una ventaja competitiva que no tiene EE.UU. y mucho menos Europa, siempre tan concienciada en preservar las libertades individuales de sus ciudadanos. Por otra parte, según la consultora McKensey, el mercado de las TIC en su conjunto producirá entorno al 3-4 % de todas las emisiones de CO2 del mundo en 2020. Tan solo en EEUU los centros de datos (CPD) consumen el 1,8% del consumo eléctrico total del país. Sólo entre el 6 y el 12% de todo el consumo del CPD va destinado a realizar cálculos o procesos de algún tipo, el resto va destinado a su refrigeración y mantenimiento.
En este contexto la IA verde plantea un menor consumo de recursos llegando a un compromiso entre el volumen de datos necesario para entrenar el modelo, el tiempo dedicado a entrenarlo y el número de iteraciones necesarios para optimizar sus parámetros de ajuste. Se trata de analizar hasta qué punto es necesario incrementar o mejorar la precisión de un modelo dadas las implicaciones económicas, medioambientales y sociales que esto conlleva. Por dar algún dato cuantitativo el modelo BERT-large (modelo de PLN de Google) contiene 350 millones de parámetros, se entrena sobre 64 chips TPU (unidad de procesamiento tensorial o TPU) en un período de tiempo de 4 días y el coste por hora puede llegar los 1.000 dólares. Desconocemos el consumo energético y la huella de carbón exacta que provocan estos modelos, pero no tiene buena pinta sin pensamos que éste es sólo uno dentro de la carrera iniciada por todos los productores de IA por obtener modelos con mejores métricas y resultados. Es importante destacar que los resultados obtenidos por estos macromodelos son imposibles de replicar con centros de datos de menor nivel y equipamiento lo que consolida la brecha comentada anteriormente.
Obligar a que las grandes compañías de la IA desarrollen ecomodelos respetuosos con el medio ambiente es algo que por ahora parece difícil de conseguir, sin embargo, si podemos aplicar una serie de métricas alternativas a las que desarrollamos como científicos de datos para disminuir la huella de carbono que provocan. Estas medidas de la eficiencia en el desarrollo de un ecomodelo deberían de incluir entre otras el cálculo de la huella de carbono, la cantidad de energía eléctrica necesaria para su desarrollo y puesta en marcha y su origen, el ERT (elapsed real time o tiempo real transcurrido desde el inicio de un programa de ordenador hasta el final) y el número de parámetros FPO) son los recomendados. Para diseñar un ecomodelo de IA deberemos elegir concienzudamente el algoritmo a utilizar, reduciendo la potencia informática requerida. Elegir el enfoque correcto del problema, la cantidad de datos necesarios y a qué velocidad debe procesarse y seleccionar una métrica que nos permita solucionar el problema planteado sin tener que llegar a valores extremadamente altos de precisión.
Es evidente que siguiendo estas recomendaciones para el diseño y aplicación de técnicas de IA y ML a nuestros modelos no vamos a solucionar el problema medioambiental que nos acecha, pero sí que es cierto que teniendo en cuenta que el consumo de las tecnologías TIC representan ya más del 3-4 % de todas las emisiones de CO2 del mundo cualquier iniciativa para reducir ese gasto es bienvenida.