La ley del péndulo

La ley del péndulo

Me hago mayor… y por aquello de más sabe el diablo por viejo que por diablo, voy viendo patrones que se repiten. Los que nos dedicamos a las tecnologías de la información y tenemos una edad, tenemos la suerte de haber visto prácticamente toda la historia de la informática, y hay un patrón que se va repitiendo con diferentes sabores.

La ley del péndulo

La ley física del movimiento pendular fue descubierta por Galileo Galilei mientras miraba la oscilación de una lámpara durante la misa. La magia está en que el péndulo tarda lo mismo de un extremo al centro que del otro de nuevo al centro, y que esto depende de la longitud de la cuerda y de la aceleración de la gravedad, no de la masa del cuerpo. Por ello los péndulos se utilizaron muchos años como ‘motores’ para mover las manecillas de relojes. En un entorno teórico, sin fricción con el aire, el péndulo conserva la cantidad de movimiento y no se detiene.

Y esto qué tiene que ver con los sistemas de información?

Péndulos por tadas partes!

Pues resulta que estaba el otro día en una formación de infraestructuras de TI, y la sesión arrancó con un breve repaso a la historia de los sistemas de computación y almacenamiento.

Si nos vamos a los primeros sistemas de computación (modernos, no me refiero al ábaco), encontramos un monolito en el que tenemos procesador, memoria y almacenamiento, todo en uno. Eso está muy bien, pero la capacidad de cálculo de los procesadores va creciendo según dicta la Ley de Moore, y cada vez se necesite más almacenamiento, que al ser físico, ocupa mucho más…. Y entonces alguien dice, vamos a sacar el disco fuera y así tenemos procesador y memoria por un lado, y hacemos crecer los armarios de disco lo que queramos. Todos estamos de acuerdo en que todo separado es mejor, la arquitectura de tres capas nos permite crecer de forma eficiente y de repente… bum, aparece la arquitectura convergente, los Blades y el péndulo empieza a girar… y luego nos enamoramos de la hiperconvergencia y… voila! Volvemos a tener todo en uno!

Arquitecturas de desarrollo

Buena parte de mi vida profesional estuvo dedicada al desarrollo. Inicié mi periplo profesional programando aplicaciones de gestión en Informix 4GL: Toda la ejecución estaba corriendo en un host que teníamos con SCO Unix, y no había debate, todo pasaba allí. Pero avanzaron los 90s y apareció el cliente/servidor, donde teníamos aplicaciones corriendo en los PCs clientes, y un servidor con una base de datos que aseguraba la persistencia y ejecutaba procesos intensos en transformación de datos con procedimientos almacenados. Si no hacías desarrollo en dos capas, no molabas 😊. Luego vinieron los entornos web y ya lo de las dos capas se quedaba corto, y pasamos a tres capas. Y ahora resulta que para temas críticos, hay que acercar los datos a la computación, y aparecen nuevas arquitecturas en las que se vuelve a juntar todo 😵

Equipos de trabajo

Lo mismo nos pasó con los equipos de trabajo, ya fueran equipos de desarrollo, de servicios gestionados de soporte o de infraestructura. Empezamos con todos los equipos en casa del cliente, y a medida que el coste empezó a ser elevado, sacamos a los equipos de casa del cliente y los llevamos a las oficinas del proveedor de servicios bajo modelos de outsourcing remoto. Pero la facilidad del acceso remoto abrió la puerta al siguiente paso, que fue el offshoring: equipos remotos en otras partes del mundo, con costes muy inferiores, y todo el mundo quiso lanzar grandes contratos hasta que… nos dimos cuenta que tampoco era un modelo ideal, que la comunicación entre equipos tenía problemas culturales, que sacar el conocimiento fuera era un riesgo… y volvimos a tener planteamientos de interiorizar el talento y acercar a los equipos de trabajo.

…y unos cuantos más

Con las metodologías oscilamos del supuesto determinismo marcial de los modelos waterfall, a abrazar el indeterminismo inherente a entornos vuca del agilismo. Con la nube empezamos a mover servicios al cloud en un frenesí de 'lift and shift', y luego nos dimos cuenta de que aparte de muchas ventajas, también tiene costes elevados, y volvemos a valorar el on premise. Con el teletrabajo vimos la luz de la conciliación y disparamos la adopción del remote working, y ahora oímos voces a favor de la vuelta al modelo presencial para mantener a la gente conectada y la co-creación de valor. Con los microservicios hemos vuelto a reproducir lo que a principio de los 2000’s Microsoft acuñaba como DCOM…

Equilibrio

Mientras escribía estas líneas, he googleado un poco y he descubierto que esta ley es intrínseca a los humanos, y se reproduce en entornos diversos como la cultura o la política. Es un rasgo que se estudia en psicología, y parece que tiene que ver con diferentes factores como la idealización del opuesto, la necesidad de reafirmarnos o la comodidad del extremo.

Pues bien, igual que el péndulo, nosotros no estamos en un mundo ideal… el péndulo acaba parado en el centro, y nosotros acabamos con sistemas que se posicionan en algún punto intermedio, a veces más hacia un extremo, a veces más hacia el otro.

Busca siempre buenos profesionales que te propongan infraestructuras donde cada modelo tiene su encaje que asegura seguridad, escalabilidad y rendimiento, donde cada desarrollo se basa en una arquitectura que maximiza su eficiencia y mantenibilidad, aplicación de metodologías ágiles sin despreciar un marco global más waterfall… Huye de los ‘hypes’, de quién te diga que todo al cloud,  de los fundamentalistas del outsourcing…

Ah, y por cierto, si tienes un reto en el Workplace, en la Digitalización de Procesos, o en Infraestructuras críticas, puedes hablar con nosotros 😊

Feliz semana!

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas