Header Ads Widget

La evolución de las aplicaciones de los centros de datos y la infraestructura necesaria para ejecutarlas

 

Los usuarios son los que han impulsado el crecimiento y la evolución de la infraestructura en los centros de datos, haciendo que las empresas demanden mĆ”s servicios y tecnologĆ­a de TI para poder lidiar con este trĆ”fico de información 


Por Kam Patel, Hyperscale and Service Provider Data Center Solutions 

La modernidad trajo consigo un sinfĆ­n de desarrollos tecnológicos que nos llevaron a vivir dentro de un mundo hiperconectado, donde prĆ”cticamente todos los servicios de los cuales disponemos pasan por la nube: las transacciones bancarias, los mensajes de texto, los contenidos de entretenimiento, asĆ­ como tambiĆ©n las bases de datos de la industria. Esta enorme cantidad de servicios provoca que cada aƱo estĆ© aumentando la cantidad de datos que fluyen hacia y a travĆ©s de los centros de datos, lo que obliga a los administradores de redes a replantearse la totalidad de la infraestructura de red, desde su fibra de planta externa hasta las topologĆ­as utilizadas para mover, enrutar y distribuir petabytes de datos. 

Al mismo tiempo, la propia naturaleza de los datos tambiĆ©n estĆ” cambiando rĆ”pidamente. La tendencia hacia un mayor nĆŗmero de aplicaciones con clientes que requieren un rendimiento ultra-confiable y de baja latencia, asĆ­ como mĆ”s recursos de procesamiento en edge, ha puesto bajo anĆ”lisis la definición de lo que es o necesita ser un centro de datos. El resultado es una interesante disyuntivCuadro de textoa. 

 

Por un lado, el paso a un entorno virtualizado mĆ”s eficiente basado en la nube permite a los centros de datos aprovechar las economĆ­as de escala. De hecho, se espera que para 2025 el 85% de las  estrategias  de  infraestructura de los centros de datos integren opciones de entrega en la nube y en el borde, en comparación con el 20% en 2020 (1). Ahora, al reunir los equipos activos en una estructura centralizada (no muy diferente a una C-RAN de red móvil) los centros de datos pueden obtener ahorros sustanciales en tĆ©rminos de energĆ­a, mantenimiento y otras eficiencias operativas. 

Por otro lado, la afluencia de datos ultra-confiables y de latencia ultra-baja, procedentes de aplicaciones como la automatización de la fabricación, los vehĆ­culos con autoconducción y la telecirugĆ­a, implica la necesidad de situar mĆ”s recursos informĆ”ticos cerca de los dispositivos y las personas que producen y consumen los datos. 

Esta tendencia dicta que hay que empujar mĆ”s equipos activos al borde de la red. Pero ¿quĆ© significa esto exactamente? ¿Dónde estĆ” exactamente el lĆ­mite? ¿Gabinetes localizados y distribuidos a nivel de calle, cada uno con unos pocos racks? ¿Centros de datos metropolitanos con una docena de filas? ¿O una combinación de ambos? La respuesta estarĆ” relacionada con el rendimiento de la latencia que requieren estas nuevas aplicaciones. 

Pero no vamos a ciegas; conocemos algunos de los obstĆ”culos inmediatos que debemos superar. Por ejemplo, ya estamos viendo que los despliegues iniciales de la Inteligencia Artificial (Artificial Intelligence - AI) y el Aprendizaje de las MĆ”quinas (Machine Learning – ML) hacen que los requisitos de velocidad de la red del servidor sean de 200 gigas y mĆ”s. Sabemos que los fabricantes de switches estĆ”n favoreciendo los nuevos conectores MPO16 que proveen ocho carriles con interconexiones mediante 16 fibras. Actualmente, esto supone un potencial de 800 G por transceptor de red o, quizĆ”s, ocho servidores que se conectan a 100 G desde un Ćŗnico transceptor. MĆ”s carriles significa mĆ”s capacidad por switch, lo que supone un menor coste y consumo de energĆ­a. 

Repercusiones en la infraestructura de la red 

Un gran reto es que el ancho de banda es finito y caro, por lo que los administradores de la red deben priorizar quĆ© información necesita ser canalizada de vuelta al nĆŗcleo y quĆ© puede permanecer en el borde. Incluso definir la ubicación del centro de datos al borde (edgeCuadro de texto data center) puede ser difĆ­cil. En el caso de centro de datos hiperscala el borde puede estar en un MTDC, en un gabinete a pie de calle, o en una instalación de fabricación situada a kilómetros del nĆŗcleo. La variedad de escenarios de despliegue y los requisitos de ancho de banda dictan las capacidades y configuraciones de la infraestructura. 

Adaptarse a los nuevos requisitos del nĆŗcleo al borde significa que las infraestructuras de red deben ser mĆ”s rĆ”pidas y flexibles. Ya estamos viendo cómo las velocidades de 400 G y superiores estĆ”n afectando a los diseƱos de las redes. A partir de 400 G, se estĆ”n diseƱando mĆ”s aplicaciones para un cableado de 16 fibras. Esto estĆ” provocando un cambio en la conectividad tradicional basada en diseƱos cuĆ”druples a los diseƱos octales construidos con conectores MPO de 16 fibras. Una configuración de 16 fibras duplica el nĆŗmero de salidas por transceptor y proporciona soporte a largo plazo desde 400 G hasta 800 G, 1.6 T y mĆ”s allĆ”. El diseƱo de 16 fibras, incluidos los transceptores, los cables troncales y los módulos de distribución, se convertirĆ”n en la base de las conexiones del nĆŗcleo-al-borde (corCuadro de textoe-to-edge) de mayor velocidad. 

Las tecnologĆ­as y aplicaciones de próxima generación estĆ”n impulsadas por eficiencias y capacidades que aĆŗn estamos desarrollando. Como industria, cuando pensamos en tener que reequipar miles de centros de datos muy grandes para proporcionar ese nivel de flexibilidad de alta eficiencia, hacerlo bien desde el primer dĆ­a se convierte en un imperativo. Los cimientos de la infraestructura tienen que estar listos antes de que lleguemos demasiado lejos. De lo contrario, las infraestructuras que deberĆ­an permitir el crecimiento lo impedirĆ”n. Eso no significa que debamos tener el 100% de las capacidades necesarias desde el principio. Pero sĆ­ necesitamos entender cómo es la estructura, para poder construir lo que se necesita, donde se necesita y antes de que lo necesitemos. 

Publicar un comentario

0 Comentarios