Redes de área "glocal"
Comunicaciones Hoy22/12/2014
Por José Manuel Armada, Director de Ingeniería de Clientes Interoute Iberia
En el mundo de las redes de telecomunicación todos estamos familiarizados con términos tales como convergencia, integración, colaboración, etc. que surgieron hace tiempo de la necesidad de optimizar los recursos de transporte y distribución de la información para obtener el máximo partido de la tecnología y permitir, entre otras cosas, aumentar la productividad.
Conceptos como la nube o Cloud Computing y Big Data se han popularizado debido a la gran cantidad de información que esas redes transporta porque es generada por un cada vez mayor número de dispositivos que no hará más que aumentar de forma exponencial con otro término que también se ha popularizado, el Internet de las Cosas.
Estas dos tendencias pueden parecer aparentemente contradictorias. Por una parte, se tiende a la centralización y unificación de los recursos para aprovechar las ventajas tecnológicas y de economías de escala del cloud, pero por otra, las redes de acceso han de evolucionar y tener cada vez más densidad y cercanía al origen donde se genera la información para recolectarla y en algunos casos también preprocesarla.
En realidad, las redes se están preparando desde hace tiempo para soportar estos requisitos. En el nivel de transporte se están adaptando de diversas maneras. Por un lado, algo que era de esperar: aumentando su capacidad, de tal manera que ahora hablamos de troncales que utilizan múltiplos de canales de 100 Gbit/s. Pero también integrando funciones de control que, de alguna manera, se habían dejado en mano de niveles superiores. Por ejemplo, las redes de transporte óptico (en inglés Optical Transport Network, OTN) recuperan las funciones que tenía la Jerarquía Digital Síncrona (SDH) en cuanto a facilidades de monitorización y supervisión de la calidad de servicio extremo a extremo que, de alguna manera, se habían perdido en las redes basadas en multiplexación de longitudes de onda (WDM) que fueron diseñadas inicialmente para obtener el máximo rendimiento de la fibra óptica y que añaden también la capacidad de realizar la conmutación a nivel óptico (OADM, OXC) mediante un plano de control, que utilizando el protocolo GMPLS automatiza esas funciones.
Sin embargo, aunque el aumento de capacidad en las redes y en la “nube” puede sugerir que las distancias entre las aplicaciones y los usuarios ya no importan, hay dos escenarios o situaciones en las que esto es discutible. La primera, de índole técnico, es que hay y parece que siempre habrá aplicaciones sensibles a la latencia por su propia naturaleza y el tiempo de propagación no se puede acortar fácilmente. La segunda, tiene más que ver con razones de coste y competencia y es que siempre habrá ubicaciones que además de estar más alejadas que otras, tendrán mayores costes de conexión por motivos de competencia o simplemente por disponibilidad de infraestructuras.
Así pues, frente a la aproximación monolítica de la gran nube y los usuarios o utilizadores distribuidos geográficamente, la tendencia será quizá la construcción de un conjunto de nubes más o menos inteligentes que se comunicarán entre sí, que estarán ubicadas lo más cerca posible del usuario (o en su propio bolsillo o ubicación) y que optimizarán el uso del ancho de banda y las comunicaciones teniendo en cuenta la naturaleza de las aplicaciones, siendo capaces de distinguir qué información se puede procesar de forma local y qué parte ha de enviarse o recibirse de otras nubes. Estas nubes distribuidas deberán contar también con los mismos sistemas de seguridad de las grandes y además ser parte de un ecosistema de provisión de servicios automático extremo a extremo que minimice la intervención humana o manual.