DevOps basado en datos, tres tecnologías para tres objetivos clave de los operadores

Publicado el 23 Mar 2018

Pablo Manuel García, Solutions Architect de Blue Telecom Consulting.

Todas las organizaciones del sector Telco comparten tres objetivos universales: ahorrar costes, incrementar la consistencia de sus productos y acortar los tiempos de comercialización, es decir, todas quieren producir más barato, mejor y más rápido que sus competidores.

Puede parecer que no hay una receta mágica para consolidar esos objetivos al mismo tiempo, sin embargo, existe una metodología capaz de llevar a cada organización por el camino correcto. Nos gusta llamar a este paradigma “Data Driven DevOps” (DevOps basado en datos), que se asienta en tres pilares tecnológicos clave: monitorización, analítica y DevOps.

Monitorización

Fusionar en un único concepto algunas de las tendencias tecnológicas más actuales y populares puede levantar suspicacias entre los profesionales más escépticos. A pesar de ello, es posible seguir siendo realistas y comprobar cómo la monitorización es capaz de interconectar todas las piezas y cerrar el círculo.

La monitorización tradicional consiste en medir un conjunto de indicadores clave de rendimiento (KPI) del sistema, levantando una alarma en el momento que se detecte que uno de esos indicadores se sitúa fuera de los parámetros esperados. Esos umbrales suelen ser estáticos y se basan en la experiencia histórica de los operadores, lo que presenta dos limitaciones principales:

-Las decisiones de las acciones a tomar son subjetivas y dependen de cada operador. Así, diferentes profesionales que trabajan en entornos iguales elegirán, seguramente, umbrales diferentes para establecer las alarmas. Esta situación subjetiva se resolvería si esos parámetros estuvieran basados en datos y criterios objetivos.

-Los umbrales estáticos, normalmente, no son suficientes. No solo porque todos los sistemas evolucionan de forma dinámica, lo que haría necesario revisarlos de forma periódica, sino porque los KPIs altamente estacionales requieren más inteligencia a la hora de detectar todas las anomalías en el sistema de forma eficaz.

Analítica

Actualmente se ha producido un boom relacionado con la analítica como consecuencia de la revolución de datos que vivimos, y los científicos de datos son ahora las nuevas estrellas de rock en el mercado laboral.

Las herramientas de Big Data permiten almacenar y analizar, de manera oportuna, grandes cantidades de datos procedentes de prácticamente cualquier fuente. En el sector de las telecomunicaciones existen numerosos ejemplos en los que la combinación de datos del entorno con datos comerciales logra enriquecer la información disponible para el desarrollo del negocio. Esto conduce a una comprensión mucho más profunda del propio modelo comercial de cada organización y puede servir, incluso, para predecir alarmas futuras, facilitando la puesta en marcha de acciones preventivas.

Además, los últimos avances en machine learning y deep learning están gestando una nueva revolución. Los algoritmos actuales pueden aprender de la historia pasada del entorno para definir su comportamiento en condiciones normales. Cualquier cambio en el comportamiento esperado desencadenará una alarma para notificar que algo extraño está sucediendo.

Con suficiente información, los algoritmos serán capaces, incluso, de comprender de dónde provienen las anomalías, realizando un análisis de causa raíz basado en datos históricos y pudiendo llegar a identificar una solución al problema.

DevOps

Ya no hay duda de que el paradigma DevOps ha llegado para quedarse. Con la rápida expansión de la virtualización, del cloud y de las tecnologías definidas por software, la línea entre Operaciones y Desarrollo se ha vuelto cada vez más delgada, llegando casi a su desaparición. IAAS, SDN, NFV y otras “cosas definidas por software” hacen que los archivos de configuración se conviertan en algo mucho más importante que el metal. Esta revolución lleva a los equipos de Operaciones a dejar de escribir comandos en consolas interactivas para, en su lugar, pasar a crear recetas para sus sistemas de gestión de configuraciones.

En paralelo, las metodologías ágiles y los procesos de integración continua también pueden beneficiarse de una capa de analítica. Los sistemas de control de versiones, los tickets de errores e incidencias, así como los resultados de las pruebas se deben integrar en el flujo de datos. El análisis de todo ello permitirá la identificación de puntos débiles en el proceso de entrega, llegando también a optimizar la asignación de la carga de trabajo entre los equipos interfuncionales.

De sistemas automatizados a sistemas autónomos

Si se siguen los pasos descritos anteriormente, será posible que cualquier organización disponga de métodos de configuración para su infraestructura basados en recetas parametrizables. Así, si se tuviera que incluir un nuevo nodo en un clúster, por poner un ejemplo sencillo, simplemente se tendrían que cambiar un par de parámetros en las recetas para desplegar la nueva arquitectura en consecuencia.

También se dispondría de un sistema inteligente de monitorización capaz de predecir problemas futuros y de identificar las acciones que se deben tomar para resolverlos. Además, este sistema de monitorización podría activar acciones directamente a través del sistema de gestión de configuración. De esta forma, al evolucionar el modelo del sistema, se mejora el autoconocimiento del entorno, lo que significa llevar a la práctica el machine y el deep learning.

Casos de uso en compañías Telco

Con este enfoque es posible disponer de una solución capaz de modificar la arquitectura y dimensionamiento de la solución de manera autónoma cuando se espera un incremento de la carga, debido, por ejemplo, a la puesta en marcha de una campaña de marketing. Asimismo, a través de la optimización multiobjetivo, se podrá tener en cuenta el factor económico al mismo tiempo, con acciones como, por ejemplo, apagar los nodos cuando la carga del sistema disminuye, optimizando, de esta forma, el uso de los recursos. Esto también supondrá un gran ahorro en términos de horas-hombre, ya que casi no se necesitará tiempo para estudiar el escenario de un nuevo cliente con el fin de escalar adecuadamente el entorno. El producto se escalará por sí mismo en función del propio conocimiento adquirido in situ sobre las necesidades reales del cliente.

Otro caso de uso para las redes definidas por software puede ser la reconfiguración de las reglas OpenFlow para desviar el tráfico, a fin de evitar ciertos nodos cuando se espere un pico de tráfico en un futuro cercano. Todo ello podría estar basado en un input recibido desde las redes sociales debido, por ejemplo, a la celebración de un evento cultural o social en una ubicación concreta.

En definitiva, implementar una capa de analítica sobre los datos provenientes de una solución de monitorización no sólo permitiría una mejor comprensión del entorno, sino que también podría incluir alarmas predictivas. Cuando la automatización entra en la ecuación, se convierte en “data-driven”, con los siguientes beneficios:

-El sistema se vuelve más robusto, ya que puede actuar de manera autónoma y preventiva.

-Con el uso de metodologías DevOps, los productos llegan al mercado más rápidamente.

-Es más rentable, ya que requiere menos intervención humana tanto en las fases de despliegue como de mantenimiento, pero también es menos subjetivo y menos propenso a sufrir errores humanos.

¿Está su organización lista para dejar atrás la automatización a la vieja usanza y comenzar a adoptar DevOps basado en datos?

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

M
Pablo Manuel García

Artículos relacionados

Artículo 1 de 3