Facebook, revolucionando el diseño del Data Center.

Facebook, revolucionando el diseño del Data Center.

¿Te has puesto a pensar en todo lo que pasa en el tiempo que te toma dar un like? En exactamente un minuto, 150,000 mensajes son enviados, se registran 100,000 solicitudes de amistad y 243,000 fotos son publicadas. Esta gran masa de información que como usuarios generamos está disponible gracias a la precisión y buen funcionamiento de los data center.

En un principio la página estaba soportada por tan solo un servidor pero con el transcurso del tiempo, la demanda de servicios creció y Facebook decidió construir su primer data center con el cual incursionaron en el diseño de infraestructuras tecnológicas. A continuación te presentamos las innovaciones que revolucionaron la implementación del data center:

1. Eficiencia a través de la descentralización de hardware y software: Para hacer llegar a un usuario la información que todos los días ve en su news feed, Facebook utiliza una infraestructura llamada Multifeed, la cual está compuesta por 2 softwares: Aggregator que se encarga de recopilar la data y Leaf que es la capa de almacenamiento que se encarga de mantener la información en la memoria para que pueda ser entregada rápidamente. Estos procesos consumían demasiada energía del CPU y mucho espacio en la memoria.

Anteriormente el Multifeed funcionaba con 20 servidores los cuales corrían al mismo tiempo ambos programas. Al analizar el funcionamiento los ingenieros se dieron cuenta de que el proceso utilizaba demasiada energía de los CPU’s alojados en los servidores conectados, pero gran parte de la capacidad de memoria al sumarse en una misma, se quedaba inactiva. Por lo que decidieron rediseñar la forma en que el Multifeed trabajaba, descentralizaron el software del hardware, los servidores de Aggregator se encargan únicamente de recopilar la data y los servidores de Leaf, la guardan, ya que cuentan con una gran capacidad de almacenamiento en la memoria.

Resultado: Un incremento del 40% en la eficiencia de los servidores, la infraestructura pasó de un radio CPU a RAM de 20:20 a un 20:5 y una reducción del 80% en la capacidad de memoria que necesita ser desplegada. Esta descentralización permitió que Facebook tenga la capacidad de crecer a gran escala sin la necesidad de aumentar considerablemente el uso de energía eléctrica.

2. Wedge, la conectividad más rápida a la red: Tras el rediseño del funcionamiento de Aggregator y Leaf, los ingenieros de Facebook debían incrementar el ancho de banda para operar sus sistemas.

Así fue como crearon Wedge, un interruptor de Ethernet que en su primera fase manejaba 40-Gigas de velocidad, tras varias pruebas realizadas a lo largo de 6 años perfeccionaron el interruptor y desarrollaron una segunda generación que maneja 100-Gigas.

Resultado: Con esta capacidad de banda ancha, ya no es indispensable tener los servidores de almacenamiento y de recopilación de data en un mismo lugar. Lo que hace posible la exitosa descentralización de elementos y la optimización de cada servidor de acuerdo a las funciones que debe cumplir.

Tanto la descentralización de componentes como la invención de Wedge, han marcado un antes y un después en la infraestructura de la compañía y el diseño del data center. Anualmente, Facebook presenta un reporte a través de la iniciativa Open Compute Project (OCP por sus siglas en inglés) con las conclusiones más relevantes de sus programas en desarrollo. En este 2016, los expertos inspirados por las fallas que el huracán Sandy provocó en varios data center, realizaron apagones en sus sistemas para estudiar su comportamiento y la efectividad del plan de emergencia por lo que probablemente conozcamos los resultados en el reporte que la compañía presentará a principios de 2017.


Alexis Ramirez Montes

Business Development Manager / Account Manager / Product Manager

8 años

Buen artículo

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas