Con tantos nuevos lanzamientos cada años, ¿es posible la informática sostenible?

Rubén Castro, 14 septiembre 2022

Como ya sabemos, el cambio climático amenaza nuestro modo de vida actual. Tradicionalmente se culpabiliza principalmente al uso de combustibles fósiles, a la agricultura y la ganadería. Pero si escarbamos un poco más, descubrimos que muchas de estas industrias están apuntaladas por el impresionante sector tecnológico de las últimas décadas. Y al igual que la ley de Moore antes, la huella de carbono del sector tecnológico está aumentando a un ritmo vertiginoso.

Por ejemplo, se calcula que el consumo de electricidad de los centros de datos a nivel mundial supera los 205 teravatios hora al año. Esta cifra supera el consumo anual de electricidad de países como Irlanda, Dinamarca, Taiwán o Sudáfrica. Además, en este momento sólo el 61% de la población mundial está conectada, y las modestas proyecciones muestran que para 2030, más de 43.000 millones de dispositivos IoT estarán conectados a la esfera del mercado, siempre interconectado.

A una escala tan masiva, se prevé que las tecnologías de la información y la comunicación (TIC) representen entre el 7% y el 20% de la demanda mundial de consumo energético en 2030.

El uso de energía renovable es sólo una parte de la compleja y polifacética ecuación de la neutralidad del carbono, y la persecución de la escurridiza huella medioambiental del carbono ha llevado a algunas observaciones contraintuitivas en la utilización de la energía.

En este artículo vamos a ver una visión global sobre cómo la construcción de sistemas informáticos sostenibles no sólo es lo más consciente, sino también cómo puede conducir a una mejor eficiencia tanto para los sistemas informáticos como para el planeta. Desglosamos algunos de los principales factores que contribuyen a la huella de carbono dentro de la industria informática y describimos cómo las técnicas modernas destinadas a frenar las emisiones de carbono pueden dar lugar a un cambio sísmico en la forma de desarrollar el hardware del futuro.

¿Por qué es importante?

Las tendencias recientes han puesto a la industria informática en el punto de mira de las emisiones de carbono, y no en el buen sentido. El modelo de negocio predominante en las empresas tecnológicas, que fomenta el desecho de la “vieja” tecnología a medida que se lanza la “nueva”. Esta constante renovación de la tecnología, como las actualizaciones de los teléfonos móviles, crea un montón de residuos que es muy difícil de reciclar, y mucho menos de revender en un mercado alternativo.

Además, la minería de criptomonedas ha acaparado muchos titulares últimamente porque el método de verificación PoW requiere un consumo masivo de energía y ha sido uno de los factores más importantes para rechazar la tecnología en la esfera pública.

También está la “nube” que alimenta casi todos nuestros servicios cotidianos y nos mantiene interconectados. Estos gigantes necesitan seguir creciendo para dar servicio a todas nuestras necesidades actuales y futuras, desde el uso personal, como el almacenamiento de fotos o el visionado de la televisión, hasta los servicios a escala industrial, como la gestión del tráfico aéreo y el funcionamiento de los gobiernos. Estas actividades y servicios funcionan 24 horas al día, 7 días a la semana, y cualquier tiempo de inactividad supondría una considerable pérdida de calidad de vida para muchos. Por supuesto, esto también supone un enorme impuesto sobre el carbono en nuestro planeta.

Aunque la eficiencia energética siempre ha sido una de las principales consideraciones a la hora de diseñar nuevo hardware, sólo tiene en cuenta un aspecto de la ecuación. El diseño de un entorno informático sostenible requiere una visión holística del impacto medioambiental de la tecnología durante su vida útil, desde la fabricación de los chips en la etapa de producción hasta el reciclaje de los semiconductores en la fase final de su vida útil.

¿Cuál es la fuente?

Sería fácil señalar simplemente a las empresas de criptomonedas y centros de datos como los culpables del aumento de las emisiones de carbono en el sector de las TIC. Sin embargo, los mineros de criptomonedas y los centros de datos sólo constituyen una parte de las emisiones de carbono. Las emisiones de carbono procedentes de la producción, la fabricación, el transporte y el procesamiento al final de la vida útil en realidad eclipsan sustancialmente la huella de carbono operativa.

Esto es lo que han descubierto recientemente los investigadores de Harvard, que han analizado los informes corporativos disponibles públicamente sobre las emisiones de carbono de empresas como AMD, Apple, Google, Huawei, Intel, Microsoft y TSMC, entre otras. Los resultados muestran que la huella de carbono actual está relacionada de forma abrumadora con el CAPEX (por el coste único de la infraestructura y el hardware), más que con el OPEX (operaciones recurrentes).

Desglose de las emisiones de carbono de Apple

Por ejemplo, el desglose de carbono de Apple en 2019 se debió en un 74% a la fabricación, mientras que el uso de hardware solo representó el 19%. La fabricación de circuitos integrados fue abrumadoramente el mayor productor de emisiones de carbono (33%), lo que pone de manifiesto la necesidad de innovar en el lado de la producción para una informática sostenible.

La combustión de carburantes en forma de gasóleo, gas natural y gasolina constituye sólo una pequeña fracción de las emisiones directas en el coste operativo de los centros de datos. Sin embargo, constituyen una gran parte de la huella de carbono de la fabricación de chips: más del 63% de las emisiones de la fabricación de obleas de 12 pulgadas en TSMC, por ejemplo.

Desglosar la vida útil de un sistema informático en cuatro fases distintas ayuda a arrojar más luz sobre las posibles fuentes de emisiones de carbono. Éstas son

  • Producción: una fuente de capex; implica la adquisición de materiales, el diseño del CI, el embalaje y el montaje
  • Transporte del producto: una fuente de capex; el traslado de un producto o hardware a su punto de uso
  • Uso del producto: fuente de opex; utilización del hardware durante su vida útil, incluido el consumo de energía estático y dinámico
  • Fin de vida: fuente de capex; reciclaje y emisiones de carbono al final de la vida útil, potencialmente para su reutilización en futuros sistemas.
Aunque la huella de carbono del lado de la fabricación constituye una parte sustancial de las emisiones totales de carbono, los dispositivos siempre activos (como las consolas de juegos o los dispositivos inteligentes) incurren en un coste opex mayor que el capex. Por tanto, la optimización de la eficiencia energética sigue siendo una importante restricción de diseño, pero todavía hay que tomar medidas innovadoras para abordar el coste no operativo de la producción, el transporte y el reciclaje.

La huella (de carbono) de la IA

Analicemos en profundidad uno de los sectores que más ha crecido en los últimos años: la inteligencia artificial. Sólo en la última década, los logros de la IA han sido extraordinarios. Desde el desarrollo de vacunas en tiempo récord, pasando por las innovaciones de los vehículos autónomos, hasta el DLSS 2.0 en la representación visual… La IA no ha hecho más que empezar a transformar nuestras vidas y sociedades.

Pero antes de dejarnos llevar por el inmenso progreso de la tecnología, demos un paso atrás y exploremos el impacto medioambiental de la IA en nuestro planeta.

El aumento de los grandes datos significa que ahora estamos operando en la generación y el almacenamiento de datos a escala de exabytes. A continuación, los modelos de IA están aumentando drásticamente de tamaño: Google acaba de lanzar DALL-E 2, un modelo de 5.000 millones de parámetros que genera imágenes a partir de un texto en lenguaje natural. Luego, por supuesto, está toda la infraestructura de hardware necesaria para impulsar la revolución de la IA en la nube y en los laboratorios de investigación.

Centrándonos en el lado de la aplicación, el ciclo de vida para el desarrollo y la implantación de un sistema de IA es aproximadamente el siguiente

  • Experimentación y procesamiento de datos: implica la recopilación y limpieza de datos, así como la extracción de características relevantes para el desarrollo de un modelo de máquina. La fase de experimentación incluye el desarrollo y la evaluación de los algoritmos propuestos, el diseño de la arquitectura del modelo, el ajuste de los hiperparámetros y otras técnicas de alto coste computacional. Dado el amplio espacio de exploración, no es raro realizar muchas exploraciones en paralelo a escala, tanto en CPU como en GPU en la nube.
  • Entrenamiento: tras la experimentación, se desarrolla una rutina de entrenamiento prometedora, que requiere grandes cantidades de datos, cubriendo muchos casos y escenarios. El entrenamiento de un modelo en sí mismo es otra tarea de cálculo intensivo, y a veces puede requerir un ajuste adicional o un reentrenamiento a medida que se dispone de datos más recientes.
  • Inferencia: por último, se despliega un modelo y se utiliza en modo de inferencia. Este paso consiste en hacer predicciones de forma dinámica, por ejemplo, proporcionando recomendaciones sobre qué ver en Netflix, o para autocompletar los resultados de búsqueda en un motor de búsqueda.

Aunque cada inferencia individual puede ser rápida y (potencialmente) de bajo coste, la escala a la que se realiza la inferencia la convierte en algo a tener en cuenta. Se espera que los modelos desplegados produzcan billones de predicciones diarias y sirvan a miles de millones de dispositivos en todo el mundo.

Cada fase es importante, y no se puede descartar ninguna de ellas cuando se pretende alcanzar la sostenibilidad. Un modelo de lenguaje universal para la traducción de textos utilizado por Meta, por ejemplo, muestra un desglose del 31%, 29% y 40% para el procesamiento de datos, el entrenamiento y la inferencia, respectivamente.

La aceleración de propósito general en la GPU puede proporcionar una mejora de la eficiencia energética de un orden de magnitud con respecto a la computación basada en la CPU. El diseño de aceleradores de IA aún más especializados puede mejorar aún más (tanto) el rendimiento como los esfuerzos de sostenibilidad.

También hay cuestiones informáticas fundamentales que deben revisarse. Por ejemplo, reducir la precisión de los números a la mitad (de 32 a 16 bits) puede duplicar la eficiencia energética, con un impacto mínimo en la precisión de un modelo ML. Tal vez también esté justificado cuestionar la representación digital de los números, pasando de la coma flotante IEEE 754 a formatos numéricos que consuman menos energía y tengan el mismo rendimiento.

Muchas de estas interesantes cuestiones arquitectónicas están ya en la vanguardia del diseño de nuevo hardware, dado el auge de la IA en la última década. Sin embargo, aunque la métrica principal se ha centrado tradicionalmente en el rendimiento, la elevación de la sostenibilidad como una restricción de diseño de primera clase presenta aún más espacio para la innovación con una mentalidad a largo plazo sobre el impacto de la tecnología en nuestro planeta.

El efecto del centro de datos

Uno de los métodos que están adoptando varias empresas para compensar su huella de carbono es el de conseguir emisiones de carbono “netas”. El objetivo es producir efectivamente cero emisiones de carbono en todas sus operaciones, ya sea mediante el uso de fuentes renovables, la reducción de las emisiones o la “compra” de créditos de carbono.

Ignoremos por ahora la opción de “comprar créditos de carbono”, ya que suele ser un truco de relaciones públicas y menos interesante desde el punto de vista tecnológico. Entonces, ¿cómo pueden los centros de datos y las grandes empresas compensar su consumo de carbono, sin dejar de mantener un negocio rentable? La respuesta es optimizar la informática sostenible.

De hecho, Meta ha estado a la vanguardia de este esfuerzo. En un documento reciente se describe cómo Meta está explorando la forma de utilizar fuentes de energía renovables, como la solar o la eólica, para alimentar sus centros de datos de forma optimizada.

Por ejemplo, las fuentes de energía solar proporcionan una fuente de energía cíclica, produciendo miles de megavatios hora durante el día, y luego una energía mínima por la noche. Curiosamente, esto también es muy similar a la utilización de los centros de datos, donde las horas de trabajo requieren muchos más recursos durante el día que durante las noches. Al emplear una programación de los recursos de sus centros de datos que tenga en cuenta las emisiones de carbono, éstos pueden aprovechar la energía renovable durante el día, cuando proceda, y luego cambiar a fuentes alternativas en las horas no pico.

Sin embargo, este enfoque se centra principalmente en el coste operativo, más que en el coste de fabricación inicial. Para diseñar los centros de datos del futuro, es importante tener en cuenta los costes iniciales y modelarlos adecuadamente. Sólo entonces las empresas como Meta podrán decidir en qué gastar sus recursos: ¿es mejor centrar los esfuerzos de fabricación en las baterías o mantener una programación respetuosa con el carbono durante la vida útil del hardware? Esta ecuación multifacética no es trivial, y las empresas están empezando a estudiar el diseño de estos marcos para navegar por esta nueva frontera.

Informática para la sostenibilidad

Además de la gestión de las fuentes de energía renovable, hay muchos otros enfoques hacia la informática sostenible que también son prometedores.

El diseño de un hardware fiable y la resolución de los fallos del mismo constituyen su propia línea de investigación en la actualidad. Tanto Google como Meta han observado un interesante fenómeno reciente en el que los fallos de hardware se han vuelto extremadamente comunes. Los errores de hardware, que se presumían como una situación entre un millón, se han perfilado recientemente y han demostrado ser un fenómeno de uno entre mil. Entender el origen de estos errores y cómo mitigarlos ayudará a mantener su utilización durante más tiempo, prolongando su uso y amortizando su huella de carbono inicial.

La computación intermitente es otro desarrollo prometedor, en el que los dispositivos se encienden cuando son necesarios y se apagan cuando no lo son. La computación intermitente no es un fenómeno nuevo, pero presenta muchos retos únicos, como determinar cuándo se deben encender o apagar los dispositivos, cómo minimizar el tiempo de activación del interruptor y, por supuesto, qué ámbitos pueden beneficiarse de este uso intermitente de la computación.

Por último, pero no menos importante, ¿cómo podemos reciclar adecuadamente nuestro hardware una vez que ya no es útil? Esta es una cuestión que debería abordarse en las primeras fases del proceso de desarrollo del dispositivo. Por ejemplo, ¿es posible utilizar material orgánico para construir hardware de nueva generación, para permitir un reciclaje directo al final de su vida útil?

¿O tal vez pueda el mercado pivotar para “reciclar” el hardware de gama alta más antiguo en los mercados de gama baja de forma dirigida? Tal vez los chips de servidor de hoy puedan convertirse en la informática del IoT de mañana, gestionando adecuadamente la utilización de la energía y construyendo el chip de forma reconfigurable. Estas ideas están empezando a aparecer en círculos más pequeños y laboratorios de investigación, pero hasta que las grandes empresas no se decidan a acelerar este desarrollo, es posible que estas ideas no acaben de despegar.

¿Hacia dónde vamos?

El diseño de la próxima generación de sistemas y hardware con conciencia de carbono es una fase emocionante e importante de la industria tecnológica. Independientemente de la motivación que puedan tener las empresas para compensar su huella de carbono, existen bastantes retos técnicos para gestionar adecuadamente el carbono. Esta empresa requiere comprender la huella de carbono de principio a fin de los sistemas nuevos y existentes que se están construyendo, así como conocer las aplicaciones modernas y futuras (como la IA y la computación de borde).