TENDENCIAS EN MATERIA DE MONITORIZACIÓN Y TESTING

TENDENCIAS EN MATERIA DE MONITORIZACIÓN Y TESTING

Ya van nada menos que 12 años en Ayscom. 12 años en los que he tenido la suerte de adentrarme en múltiples clientes en varios verticales (operadores o entornos “enterprise”), haber trabajado con algunos de los mejores fabricantes del mercado y además he visto evolucionar a lo largo del tiempo este negocio al que nosotros internamente llamamos “T&M&M” (test, medida y monitorización). Aclarar que cuando en la casa hablamos de soluciones de monitorización nos referimos siempre de modo genérico y a todos los niveles pues trabajamos con soluciones para redes (NPM), para infraestructura (ITIM) y a nivel de aplicaciones (APM). Y lo mismo ocurre naturalmente con las soluciones de testing y visibilidad.

En estos días de confinamiento, uno echa la vista atrás y se vienen a la mente interfaces de herramientas que ahora se considerarían poco amigables, tareas de puesta a punto con configuraciones complejísimas, mantenimientos de sistemas "para estoicos” o sesiones de buceo en mares de datos desestructurados en búsqueda de conclusiones. Viendo con perspectiva aquellos recuerdos y comparando con las soluciones que ahora manejamos, parece que hubieran pasado siglos.

Lejos de hacer repasos nostálgicos sobre el pasado, en este artículo me gustaría mirar al futuro y repasar las tendencias que identifico en materia T&M&M. Es decir, nuevas tecnologías, metodologías o innovaciones de las que se oye hablar o se está ya trabajando y que pienso que serán pilares del mercado venidero de la monitorización y el testing.

Se trata de un reto, porque resulta complicado abstraer estos 5 puntos sobre mundos que en bastantes aspectos son realmente diferentes y están a diferentes niveles de evolución (IT, operadores, aplicaciones, infraestructura, redes, ... ). Pero que, como veremos, a la vez solapan en materias y a futuro parecen converger.

No alt text provided for this image

VIRTUALIZACIÓN Y CONTENERIZACIÓN

Apenas ya nadie cuestiona las ventajas de la virtualización en redes y servicios. Sin embargo, se fue dejando para segundas fases el aplicar esas mismas tecnologías a los sistemas de monitorización. Porque, si las redes y sistemas pueden pasar de entornos hardware a entornos en nube, ¿por qué no hacer lo mismo con las herramientas de monitorización y de testing? Al fin y al cabo, las mismas ventajas que han quedado de manifiesto en la virtualización de aplicaciones y redes (escalabilidad, disponibilidad, aprovechamiento, seguridad, ahorro de costes, ...) pueden ser directamente trasladables y reconocibles sobre los sistemas que monitorizan y los testean.

Es por esto que muchas firmas de monitorización y testing llevan tiempo replanteando sus soluciones para encajar ante este nuevo paradigma virtual. En este punto me refiero a virtualización de los propios sistemas de monitorización y testing (evidentemente, existen desde hace tiempo múltiples soluciones con especialización en la monitorización y testing de entornos virtuales). Los retos principales a los que se enfrentan los fabricantes de T&M&M son muy variados: solución dentro o fuera de los mismos clusters donde se encuentra el ente a monitorizar, clouds públicas o privadas, agentes y sondas dentro o fuera de las máquinas virtuales, capturas de tráfico entre máquinas virtuales, despliegue dinámico y distribuido de sondas, influencia en el rendimiento del servicio al insertar estos agentes de monitorización, etc.

Lo mismo sucede con la contenerización. Se trata de un nivel de abstracción superior al de la virtualización con gran aplicación tras el salto hacia los microservicios. Provee ventajas como la portabilidad, la estandarización, la ligereza y la mantenibilidad. Y, al igual que en el caso de la virtualización, son varias las firmas de APM que trabajan en poder monitorizar esas aplicaciones que ahora se despliegan y repliegan de forma dinámica a través de agentes que deben hacer lo propio; otros retos son el dar visión general sobre servicios que están desagregados en múltiples microservicios o planificar la capacidad de la infraestructura entendiendo la carga que suponen dichos servicios.

Y, si me permitís la licencia, me gustaría utilizar la contenerización en el mundo de las aplicaciones para dar un salto lateral al network slicing en el mundo de las redes. Y es que, en cierto modo, es similar el reto que supone para la monitorización y el testing la desagregación de las aplicaciones monolíticas en microservicios y su contenerización que el nuevo reto de monitorizar cada uno de esos segmentos lógicos de red (slices). Al igual que en el caso de los microservicios, la desagregación de las redes supone para los fabricantes de productos NPM medir el rendimiento de esos segmentos de red a nivel individual estando distribuidos y, a nivel global, compartiendo mismas infraestructuras.

En materia de virtualización y contenerización se han dado muchos pasos incluso en lo relacionado con la orquestación. Sorprenden sobre todo los rápidos avances que varios fabricantes de APM han realizado, proveyendo monitorización y testing de forma totalmente integrada a los mecanismos de integración y despliegue continuo y DevOps. Sin embargo, en el mundo de las redes, todavía muchas firmas de monitorización siguen trabajando en una integración completa de los sistemas de monitorización con los orquestadores (MANO en NFV).

No alt text provided for this image

AIOps

Que estemos viviendo el nacimiento y evolución de la inteligencia artificial se debe a cuatro razones principales: evolución de la tecnología permitiendo la acumulación de grandes cantidades de datos (big data), los avances en la potencia computacional, la posibilidad de implementar modelos matemáticas complejos y las nuevas arquitecturas de aprendizaje profundo. Esta explosión de la inteligencia artificial tienen múltiples aplicaciones y, como no, también las hay en el sector del T&M&M.

El concepto de AIOps viene de la idea de monitorizar y gestionar los componentes de la infraestructura IT utilizando big data, machine learning (ML) y otras tecnologías avanzadas analíticas para mejorar directamente o indirectamente las operaciones de IT. AIOps es el acrónimo de "Artificial Intelligence for IT Operations". Surge para proporcionar una capa paraguas a las diferentes herramientas de monitorización que normalmente existen en compañías medianas y grandes. Sobre esta capa, se realiza la ingesta de los eventos de cada herramienta, la correlación entre ellos y se infieren conclusiones a través de la detección de patrones. Este concepto viene madurando desde hace tiempo y podríamos considerar dos generaciones:

Una primera generación de AIOps en el que las herramientas realizan análisis sobre cantidades masivas de datos de eventos en tiempo real e infieren la causa raíz más probable basados en la información sobre incidencias previas. En esta primera generación las herramientas no tienen consciencia de la topología ni del servicio a nivel general; se sustentan solamente en datos de eventos procesados y adolecen de puntos ciegos al no tener la visión de todos los tipos de datos. Para que estos tipos de herramientas puedan identificar la causa raíz de una incidencia IT, se debe localizar la misma incidencia exacta, con la misma huella (el patrón), un número indeterminado de veces. En entornos dinámicos y complejos como los actuales, rara vez estas incidencias dejan esa misma huella. Por tanto, se deben superar varios fallos e incidencias antes de que estas herramientas sean capaces de proporcionar valor.

La diferencia principal con la nueva generación de herramientas AIOps que está empezando a emerger es que no solamente recogen información de eventos; se acumulan combinaciones de eventos, métricas, logs, datos en streaming, dependencia de datos y otros tipos que proporcionan visibilidad y contexto. Incluir la información de topología en los algoritmos de ML permite detectar e identificar la causa raíz con precisión y alta certidumbre.

¿Cuál es el futuro de AIOps?

Mi apuesta es que esto no ha hecho nada más que empezar. En un mundo en el que las operaciones IT tienden a estar altamente automatizadas, el foco de los equipos se mueve hacia el valor del análisis y el diagnóstico que, a su vez, necesitará cada vez más del apoyo de tecnologías como AIOps.

Por otro lado, al igual que sucedió en su momento con las herramientas de monitorización tradicionales, no solamente van a aparecer nuevos players con soluciones generalistas de AIOps, sino que los propios fabricantes de redes e infraestructura incluirán sus propias soluciones AIOps en sus respectivos dominios en un intento de competir con las generalistas.

Y no olvidemos que actualmente estamos viviendo la era de la IA débil. Nos queda varias revoluciones por delante en materia de monitorización y testing con la implementación de una futura IA fuerte sobre aspectos y aplicaciones que ni siquiera hoy somos capaces de imaginar.

EVOLUCIÓN DEL FOCO: DE LA RED/INFRAESTRUCTURA AL SERVICIO Y FINALMENTE AL USUARIOS/NEGOCIO

Este apartado resultará ya para muchos un cliché. Todo aquel que haya trabajado unos años en el sector de la tecnología habrá vivido la "comoditización" del hardware y el traspaso de valor al software. De forma paralela, el sector T&M&M se reconfiguró abandonando las estrategias basadas en hardware -sondas y equipamiento ad-hoc- en aquellos casos en los que era posible. A cambio, se apostó por soluciones software que podían apoyarse sobre hardware COTS o por estrategias de virtualización o en la nube del tipo "XaaS", como son el Testing as a Service (TaaS) o Monitoring as a Service (MaaS).

La razón detrás de este salto fue una primera evolución del foco en la monitorización y el testing. ¿Por qué vigilar la infraestructura cuando lo que realmente interesa es el rendimiento y calidad de los servicios y aplicaciones? ¿Importa realmente una indisponibilidad en un elemento de la infraestructura si el servicio no se resiente? Es en este momento cuando las herramientas tipo APM empezaron a cobrar especial relevancia y empezamos a oír el concepto de SOC (Service Operation Center) como remplazo del NOC (Network Operation Center) tradicional.

Pero, ¿significó esto la desaparición de ITIM y NPM? Ni mucho menos. El rendimiento a nivel servicio o aplicación se puede medir de forma aislada en su capa pero para tener una visión de conjunto se sigue también necesitando información de las capas inferiores sobre las que se apoya. Es por eso que es ahora frecuente encontrar en las compañías soluciones de monitorización a diferentes niveles alimentándose unas a otras.

En otra vuelta de tuerca, el foco se movió del servicio y la aplicación a la experiencia del usuario y el negocio: ¿realmente importa una degradación de alguna métrica de nivel servicio si el cliente no lo percibe? ¿estamos utilizando las métricas a nivel aplicación que verdaderamente impactan en el negocio? Fue en ese momento cuando se empezó a tratar la calidad de la experiencia de usuario (saltando del SOC al CEM) y otras métricas de negocio como es el churning o el NPS en las herramientas de monitorización. Incluso empezaron a surgir herramientas que evaluaban impactos de incidencias cuantificando a nivel económico las mismas para poder priorizar su atención.

De nuevo, este cambio de paradigma no significa desechar lo anterior sino incluir una nueva capa que requiere de todas las inferiores (y sus herramientas) para ofrecer la información.

Y de ahí mi conclusión a este apartado sobre la evolución en el foco: aunque éste vaya evolucionando y se requieran nuevas herramientas T&M&M para nuevos niveles, siempre van a ser necesarias herramientas en las capas inferiores (infraestructura, redes, servicios y aplicaciones) para sustentar las nuevas métricas. Estoy convencido de que, aunque en el futuro hablemos de nuevos indicadores tipo "felicidad" o de otros temas como son las predicciones o el análisis contextual por usuario, no podremos descuidar las capas sobre las que se sustenta. Estas evoluciones en el mundo del T&M&M son acumulativas, no sustitutivas.

AUTOMATIZACIÓN

No alt text provided for this image

Este asunto solapa parcialmente con alguno de los puntos anteriores pero creo que se merece su propia sección. Miles de empresas invierten en automatizaciones para minimizar la intervención humana y de ese modo reducir costes, aumentar fiabilidad, ganar velocidad y conferir seguridad. Por ejemplo, a nivel IT, todos habremos oído hablar de los RPA (Robotic Process Automation) que buscan estos mismos objetivos en las tareas repetitivas que se realizan sobre aplicaciones informáticas.

El encaje del T&M&M en este ámbito es total, especialmente en lo referente al testing. Fabricantes y equipos de servicios venimos trabajando en aplicar los automatismos en frentes diversos como por ejemplo son:

  • Bancos de prueba en laboratorios en los que se busca minimizar el time to market y maximizar la fiabilidad de los resultados. En estos casos, se trabaja en desarrollos integrados con las herramientas de medida y los propios dispositivos a probar que realizan los tests de forma automática.
  • Sistemas de monitorización que detectan los cambios en el dominio a monitorizar (red, aplicaciones, infraestructura) y se reconfiguran, se despliegan o repliegan de forma automática para continuar con su control y vigilancia.

Pero la monitorización y testing pueden jugar un papel clave junto con las automatizaciones de una forma más activa. Algunos ejemplos que pueden clarificar este punto son las herramientas que miden el rendimiento de aplicaciones y "accionan" corrigiendo automáticamente el problema aplicando algoritmos. O el equivalente en el mundo de las redes que se denomina SON (Self Optimized Networks).

Y rizando el rizo, otro aspecto relacionado en el que T&M&M podrá resultar clave en el futuro es la vigilancia de las mismas automatizaciones. Es decir, medir cómo de buenas son las automatizaciones que realizamos o monitorizar esas mismas automatizaciones de forma que se encuentren bajo control.

Como se puede ver, el matrimonio del testing y la monitorización con la automatización resulta lógico y necesario. Considero que veremos muchos frutos de su conjugación en los próximos años.

No alt text provided for this image

HÍBRIDOS, SOLUCIONES ABIERTAS Y CONVERGENCIA

Resulta curioso el eclecticismo que se puede observar en muchos de nuestros clientes a día de hoy. En un pasado donde clientes con cierto tamaño optaban generalmente por soluciones comerciales, puramente basadas en hardware y que funcionaban como silos, ahora nos encontramos un entorno cada vez más complejo, diverso e imbricado.

Las soluciones de monitorización y testing open source llevan existiendo desde hace años. Durante años se han visto como la herramienta para pequeñas y medianas empresas que no se podían permitir grandes desembolsos. Comparados con los productos comerciales solían incorporar menos funcionalidad y una menor flexibilidad a la hora de adaptarse al cliente. Sin embargo, a día de hoy, esto ya no es necesariamente así y es frecuente encontrar herramientas de este tipo a nivel monitorización en grandes clientes, alimentando a otras herramientas comerciales. O herramientas comerciales alimentando herramientas de reporting open source y capas paraguas que son desarrollos propios. Las opciones son múltiples y el denominador común es la apertura. El mercado exigía esa apertura en las soluciones comerciales y hoy ya resulta habitual encontrar interfaces northbound/southbound como pueden ser APIs, streams de datos como Kafka, etc. en todas ellas.

Otros ejemplos de hibridaciones son las soluciones de monitorización que combinan diferentes implementaciones: on premises / cloud privada / cloud pública. En este proceso de transición a la nube es frecuente encontrar soluciones de monitorización que cuentan con equipamiento bare metal en paralelo con otro virtualizado o contenerizado, adaptándose a los diferentes requisitos del cliente. En entornos de testing activo de aplicaciones, se combinan soluciones que lanzan tráfico sintético -discreto o de carga- desde el mismo entorno donde se encuentra la aplicación, entornos repartidos (si es el caso) o incluso, soluciones comerciales que están distribuidas a lo largo del planeta y que lanzan pruebas desde diferentes países para mostrar el correcto funcionamiento a nivel internacional.

También merece la pena comentar la tendencia en la fusión de los sistemas de monitorización pasiva (recogida del tráfico real) y la activa (insertando tráfico sintético). Cada vez más fabricantes aprovechan las ventajas de esta sinergia pues mientras el primero aporta la ventaja del volumen y la percepción del usuario, el segundo permite plantear pruebas de regresión y asegurar el correcto funcionamiento en ausencia de tráfico.

Otro ejemplo claro de convergencia es la monitorización de las redes con la llegada de la tecnología 5G. Empezaba el artículo comentando el reto que supone tratar de forma global la monitorización sin desglosar entre redes de operadores y redes enterprise. Pues bien, la tecnología 5G no es una historia exclusiva de los operadores. Esta tecnología permitirá el mestizaje con redes de todo tipo y los casos de uso abarcan todos los verticales del mercado (sanidad, automoción, turismo, etc). La línea entre operadores y otros verticales empezará a difuminarse. Además, curiosamente, comprende todos los tipos de monitorización pues es una red (NPM), basada en funciones de red lógicas NFV y aplicaciones que interaccionan a nivel HTTP (APM) y obviamente requerirán de infraestructura (ITIM), que además parece se irán moviendo del core al edge (edge computing).


No me quiero extender más. Ni qué decir tiene que si alguno de los anteriores puntos os despierta la más mínima curiosidad o encaja con las necesidades que podéis tener en vuestras empresas, podéis contactarme y yo mismo o alguien del equipo de Ayscom estaremos encantados de asesoraros.

Los anteriores puntos no son entelequias de futuros lejanos, ¡muchos de ellos están sobre la mesa desde hace tiempo o están a punto de salir!

Y tú, ¿qué otras tendencias en materia de monitorización y testing identificas?

Pedro Martín

Engineer with solid market,sales and management skills. Entrepreneur committed to business performance and people.

3 años

Excelente análisis a nivel tecnológico, quizá podemos apuntar como tendencia la demanda y oferta de los mencionados T&M&M aaS. O sea contar con la ayuda de un especialista para gestionar las plataformas de T&M&M siguiendo la evolución de los negocios y los elementos sobre los que se apoyan. Modulando el balance OPEX/CAPEX.

Elena Miguel

Desarrollo de negocio | Soluciones y servicios de Test, Medida y Monitorización | Especialista en redes de acceso móvil

4 años

Efectivamente nuestro mundo en general y nuestro nicho en particular está evolucionando, pero afortunadamente estamos preparados y en continua formación para hacer frente a esos cambios y acompañar a nuestros socios y clientes en ellos.

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas