Con la transformación de las organizaciones y la expansión del cloud en ellas, nos centramos en modelos basados en servicios, donde la gestión de la infraestructura que almacena y conecta los datos también se entiende como un servicio y no un activo. Si nos centramos en soluciones de voz, contar con un proveedor que a su vez sea el operador, que disponga de la infraestructura adecuada y garantice, gracias a esta, la estabilidad y seguridad en las comunicaciones, es el reto de cualquier corporación. Centrados en esta visión se requieren centros de datos orientados a servicios flexibles, eficaces y altamente disponibles. Te explicamos porque la baja latencia es la prioridad para elegir centro de datos.
¿Cuál es la prioridad a la hora de elegir centro de datos?
Teniendo en cuenta lo anteriormente mencionado hay factores cruciales para las soluciones de de voz que están directamente relacionadas con la infraestructura como es la latencia y el jitter.
En el mundo de las comunicaciones la baja latencia y jitter es fundamental para que las llamadas sean de calidad. Cuando hablamos de soluciones de voz nos referimos a soluciones de centralitas virtuales, SIP Trunk o software de call/contact center.
Estos dos factores son una prioridad a la hora de elegir el centro de datos donde alojar nuestra infraestructura y recursos, pero en concreto la latencia es el principal.
¿Qué es la latencia y como afecta a la hora de elegir centro de datos?
La latencia, mide en milisegundos el tiempo que transcurre entre el usuario que inicia la comunicación y el tiempo que tarda en recibirse la respuesta. El jitter, también medido en milisegundos, es la diferencia de retardo de los paquetes, o sea, la fluctuación de la latencia.
Por ello, la ubicación del data center donde esta alojada la infraestructura de voz que soporta la solución de comunicación, es vital. No es lo mismo que la señal tenga que recorrer miles de kilómetros a una distancia mucho más corta donde se reduce la latencia a tan solo unos pocos milisegundos lo que proporciona unas comunicaciones de calidad.
La tecnología de redes recomienda que los centros de datos deberían estar ubicados cerca de la solución o grupo de usuarios a la presentan el servicio para lograr una baja latencia y jittter y garantizar el correcto funcionamiento de las aplicaciones. Basándonos en la teoría de la física, la información que viaja a lo largo de los cables de fibra óptica no puede viajar más rápido que la velocidad de la luz. La distancia entre un centro de datos y el usuario final tiene un efecto muy apreciable en la latencia. Por ello, las empresas tratan de superar los retos que supone desplegar sus servicios lo más cerca posible de sus usuarios.
Esta tendencia trasladada al sector de los contact y call center, por ejemplo, o empresas que ofrecen atención al cliente donde los milisegundos son cruciales para que la comunicación entre el agente y el usuario sea de calidad, reducir la latencia y acercar la computación y el almacenamiento de los datos al usuario final se vuelve el reto principal. Es aquí donde nace el Edge Compunting.