Redes, cuanto más cambian las cosas, más se mantienen igual

Jesús Sánchez, 18 octubre 2022

Los protocolos de red, que definen cómo se conectan entre sí los ordenadores y otros dispositivos electrónicos, son omnipresentes. Estos protocolos son utilizados por los centros de datos, especialmente los de gran escala como Google y Amazon.


Ethernet fue el método elegido durante muchos años por los administradores de los centros de datos para llevar a cabo la intensa tarea de conectar en red todos sus servidores y routers. Ethernet es, con diferencia, el más extendido (hay otros). Ethernet es adaptable y escalable, además de tener todas las demás propiedades deseables. Como cualquier otro avance tecnológico, tiene sus inconvenientes.

La latencia es la cantidad de tiempo que pasa entre que un objeto se mueve por una red Ethernet y cuando se traslada a una nueva ubicación. A principios de este año, Google desarrolló Aquila, un nuevo protocolo de red, para superar la debilidad más importante de Ethernet. La cantidad de tiempo que transcurre entre los eventos se mide en microsegundos (s), pero a la escala de la que hablamos, estos retrasos se suman.

En palabras de Google:

La incapacidad de prever el rendimiento y la falta de aislamiento que provocan las redes de centros de datos multiempresa son obstáculos para el avance de la informática distribuida. A veces, los diseñadores de tejidos de red pretenden un rendimiento dos o tres órdenes de magnitud superior al que las aplicaciones pueden prever y programar razonablemente. Esto limita la cantidad de innovación que puede producirse en los sistemas distribuidos de nivel superior basados en clústeres.

¿Qué aplicaciones desafiantes está desarrollando actualmente Google? Es bien sabido que Google es líder en la comercialización de soluciones de computación distribuida. Fueron los primeros en desarrollar varias de las herramientas y enfoques que ahora se utilizan ampliamente para descomponer los problemas informáticos difíciles en una serie de trabajos concurrentes más pequeños. Por otro lado, desean concentrarla.

Google está desarrollando aplicaciones tan dependientes unas de otras que incluso un microsegundo puede ralentizarlas en “dos o tres órdenes de magnitud”.

Es probable que las “redes neuronales de IA” (también conocidas como multiplicación de matrices) sean la respuesta. Cuando se calculan grandes modelos, numerosos pasos del proceso aritmético se entrelazan y se afectan mutuamente; por ello, un cálculo no puede concluir sin la solución de otro cálculo.

Las empresas de chips de IA que acaban de empezar se enfrentan a retos como éste, es posible que los modelos de Google sean tan amplios que sus interdependencias provoquen cuellos de botella en sus centros de datos. Google podría necesitarlo para entrenar sus algoritmos de conducción autónoma, que deben contener un gran número de factores que dependen unos de otros. ¿Es el objeto que ve la cámara en el Lidar el mismo que ve el Lidar, a qué distancia está y cuánto tiempo falta para que nos encontremos con él?

Es posible que Google también esté haciendo muchos cálculos intensos. La computación de alto rendimiento (HPC) es un tipo de cálculo que utilizan los superordenadores para simular procesos meteorológicos y nucleares (HPC). Es importante pensar en el trabajo de Google ya que podría acabar siendo muy importante en el futuro.

Jesús Sánchez

Redactor

Entusiasta del mundo del audio y la imagen. Con un agudo oído para la calidad del sonido y un buen ojo para la excelencia visual, desentraño la magia que se esconde tras los últimos gadgets de audio y las tecnologías de televisión más punteras. Acompáñame en un viaje para mejorar tu entretenimiento.

Consentimiento