La modernidad trajo consigo un sinfĆn de desarrollos tecnológicos que nos llevaron a vivir dentro de un mundo hiperconectado, donde prĆ”cticamente todos los servicios de los cuales disponemos pasan por la nube: las transacciones bancarias, los mensajes de texto, los contenidos de entretenimiento, asĆ como tambiĆ©n las bases de datos de la industria. Esta enorme cantidad de servicios provoca que cada aƱo estĆ© aumentando la cantidad de datos que fluyen hacia y a travĆ©s de los centros de datos, lo que obliga a los administradores de redes a replantearse la totalidad de la infraestructura de red, desde su fibra de planta externa hasta las topologĆas utilizadas para mover, enrutar y distribuir petabytes de datos.
Al mismo tiempo, la propia naturaleza de los datos también estÔ cambiando rÔpidamente. La tendencia hacia un mayor número de aplicaciones con clientes que requieren un rendimiento ultra-confiable y de baja latencia, asà como mÔs recursos de procesamiento en edge, ha puesto bajo anÔlisis la definición de lo que es o necesita ser un centro de datos. El resultado es una interesante disyuntiv
a.
Por un lado, el paso a un entorno virtualizado mĆ”s eficiente basado en la nube permite a los centros de datos aprovechar las economĆas de escala. De hecho, se espera que para 2025 el 85% de las estrategias de infraestructura de los centros de datos integren opciones de entrega en la nube y en el borde, en comparación con el 20% en 2020 (1). Ahora, al reunir los equipos activos en una estructura centralizada (no muy diferente a una C-RAN de red móvil) los centros de datos pueden obtener ahorros sustanciales en tĆ©rminos de energĆa, mantenimiento y otras eficiencias operativas.
Por otro lado, la afluencia de datos ultra-confiables y de latencia ultra-baja, procedentes de aplicaciones como la automatización de la fabricación, los vehĆculos con autoconducción y la telecirugĆa, implica la necesidad de situar mĆ”s recursos informĆ”ticos cerca de los dispositivos y las personas que producen y consumen los datos.
Esta tendencia dicta que hay que empujar mĆ”s equipos activos al borde de la red. Pero ¿quĆ© significa esto exactamente? ¿Dónde estĆ” exactamente el lĆmite? ¿Gabinetes localizados y distribuidos a nivel de calle, cada uno con unos pocos racks? ¿Centros de datos metropolitanos con una docena de filas? ¿O una combinación de ambos? La respuesta estarĆ” relacionada con el rendimiento de la latencia que requieren estas nuevas aplicaciones.
Pero no vamos a ciegas; conocemos algunos de los obstĆ”culos inmediatos que debemos superar. Por ejemplo, ya estamos viendo que los despliegues iniciales de la Inteligencia Artificial (Artificial Intelligence - AI) y el Aprendizaje de las MĆ”quinas (Machine Learning – ML) hacen que los requisitos de velocidad de la red del servidor sean de 200 gigas y mĆ”s. Sabemos que los fabricantes de switches estĆ”n favoreciendo los nuevos conectores MPO16 que proveen ocho carriles con interconexiones mediante 16 fibras. Actualmente, esto supone un potencial de 800 G por transceptor de red o, quizĆ”s, ocho servidores que se conectan a 100 G desde un Ćŗnico transceptor. MĆ”s carriles significa mĆ”s capacidad por switch, lo que supone un menor coste y consumo de energĆa.
Repercusiones en la infraestructura de la red
Un gran reto es que el ancho de banda es finito y caro, por lo que los administradores de la red deben priorizar qué información necesita ser canalizada de vuelta al núcleo y qué puede permanecer en el borde. Incluso definir la ubicación del centro de datos al borde (edge
data center) puede ser difĆcil. En el caso de centro de datos hiperscala el borde puede estar en un MTDC, en un gabinete a pie de calle, o en una instalación de fabricación situada a kilómetros del nĆŗcleo. La variedad de escenarios de despliegue y los requisitos de ancho de banda dictan las capacidades y configuraciones de la infraestructura.
Adaptarse a los nuevos requisitos del núcleo al borde significa que las infraestructuras de red deben ser mÔs rÔpidas y flexibles. Ya estamos viendo cómo las velocidades de 400 G y superiores estÔn afectando a los diseños de las redes. A partir de 400 G, se estÔn diseñando mÔs aplicaciones para un cableado de 16 fibras. Esto estÔ provocando un cambio en la conectividad tradicional basada en diseños cuÔdruples a los diseños octales construidos con conectores MPO de 16 fibras. Una configuración de 16 fibras duplica el número de salidas por transceptor y proporciona soporte a largo plazo desde 400 G hasta 800 G, 1.6 T y mÔs allÔ. El diseño de 16 fibras, incluidos los transceptores, los cables troncales y los módulos de distribución, se convertirÔn en la base de las conexiones del núcleo-al-borde (cor
e-to-edge) de mayor velocidad.
Las tecnologĆas y aplicaciones de próxima generación estĆ”n impulsadas por eficiencias y capacidades que aĆŗn estamos desarrollando. Como industria, cuando pensamos en tener que reequipar miles de centros de datos muy grandes para proporcionar ese nivel de flexibilidad de alta eficiencia, hacerlo bien desde el primer dĆa se convierte en un imperativo. Los cimientos de la infraestructura tienen que estar listos antes de que lleguemos demasiado lejos. De lo contrario, las infraestructuras que deberĆan permitir el crecimiento lo impedirĆ”n. Eso no significa que debamos tener el 100% de las capacidades necesarias desde el principio. Pero sĆ necesitamos entender cómo es la estructura, para poder construir lo que se necesita, donde se necesita y antes de que lo necesitemos.
0 Comentarios