Gestión de la capacidad en un centro de datos

Cada vez las empresas, independientemente del sector al que se dediquen, dependen más del área IT de la compañía. Ya no nos podemos imaginar una empresa de cualquier tipo que no tenga página web o al menos un espacio en Facebook donde publicitar sus servicios. En el caso de empresas que se dediquen a la venta de productos, la parte digital cobra mucho más protagonismo. La mayoría de las pymes ya disponen de página web donde vender sus productos o incluso muchas compañías ya no disponen de tienda física y basan todo su negocio en plataformas on-line.

Debido a la Transformación Digital y el despegue del Internet de las Cosas, la nueva Industria 4.0 ya es una realidad, lo que conlleva que el control de las grandes factorías esté mucho más digitalizado y dependa la producción en gran medida del buen funcionamiento de la plataforma IT de la compañía. Es pues, en los centros de datos, donde se concentran la mayoría de las operaciones y donde recae toda la responsabilidad para que la empresa siga funcionando sin problemas.

En este caso, la gestión de la capacidad del centro de datos es vital para que el negocio siga funcionando. Un fallo en un data center o una incorrecta planificación del crecimiento del mismo por una mala gestión de la capacidad, puede hacer que el negocio se pare o se vea afectada su producción por no poder asignar los recursos IT necesarios que demande la compañía. Es responsabilidad del gestor del centro de datos, que éste sea capaz de adelantarse a las necesidades futuras, y a la vez sea óptimo y no esté sobredimensionado.

Para conseguir esto, sin tener una bola de cristal, se deben seguir una serie de consejos de buenas prácticas que permiten optimizar los recursos disponibles en el centro de datos. Lo fundamental es tener conocimiento de las necesidades y acciones que va a llevar a cabo la empresa a corto y medio plazo, para poder preparar la infraestructura IT para estas nuevas demandas. Parece algo obvio, pero en más de una vez, una gran empresa adquiere otras compañías y quieren consolidar las plataformas en un único centro de datos, y éste no soporta la carga adicional. También a veces ocurre que alguna empresa saca un nuevo producto, que resulta ser un éxito, y los recursos informáticos que el nuevo servicio demanda no pueden ser soportados por la infraestructura actual.              

En otras ocasiones, el responsable de la infraestructura IT de una compañía, CIO o CTO, tiene muy claras cuáles son sus necesidades a corto y medio plazo para poder desplegar todos los servicios que demandará su empresa en un futuro. Pero quizás, en su hoja de ruta marcada, se encuentre en un futuro que el centro de datos donde necesite montar, por ejemplo, la nueva plataforma de virtualización de alta densidad, no soporte a nivel de UPS o de climatización la demanda exigida. En muchos centros de datos, la infraestructura mecánica del data center es responsabilidad del departamento de servicios generales, la mayoría de las veces externalizado, y éste no tiene visibilidad de los nuevos proyectos de la compañía. La comunicación por lo tanto, entre el mundo facilities y el mundo IT, debe ser también fundamental

Para la gestión de la capacidad, es necesario disponer de las herramientas necesarias para poderse adelantar a los picos de carga, que puedan poder poner en riesgo nuestra infraestructura. Un buen ejemplo sería un sistema DCIM (Data Center Infraestructure Management), que monitorizará la carga CPU de cada equipo IT y también la demanda energética por rack además de la capacidad restante en la instalación en tiempo real. Por otro lado, definiendo unos buenos cuadros de mando (dashboards), donde se pueda ver la tendencia de nuestra instalación y también el histórico de años anteriores, podemos planificar de forma muy eficiente las necesidades a futuro de nuestro centro de datos. Adicionalmente, ajustando los niveles de advertencia de estos cuadros de mando, podemos adelantarnos a los requisitos de nuestra instalación para un plazo más largo de tiempo.

Gracias a los cuadros de mando, podemos ver el histórico y la tendencia de nuestra instalación. Es muy común que los picos cargas de trabajo se repitan periódicamente debido a trabajos recurrentes en las empresas, como pueden ser cierres contables (trimestrales, anuales…), campañas especiales (Navidad, verano…). Para estos picos de trabajo una solución interesante es la externalización de servicios no críticos en plataformas cloud públicas y dejar los recursos propios para dar servicio a esta demanda excepcional.

No sólo en momentos de picos de carga de trabajo es interesante la externalización de los servicios menos críticos. Haciendo uso de empresas de cloud pública en modo pago por uso, los entornos de desarrollo y otras aplicaciones menos importantes pueden ser externalizadas, permitiéndonos un ahorro de espacio físico, consumo eléctrico, climatización e incluso licencias propias de virtualización. Todo este ahorro, nos puede proporcionar un tiempo adicional de margen de crecimiento, si la capacidad de nuestro centro de datos se viera comprometida a corto plazo.

En el caso de que no se opte por una externalización de los servicios menos críticos, es también aconsejable valorar si estos requieren un nivel de redundancia igual que las plataformas más importantes. En muchos casos la gran mayoría del centro de datos se encuentra virtualizado en plataformas de alta disponibilidad. El propio hipervisor proporciona redundancia en el caso de que algún servidor físico tenga algún problema, moviendo automáticamente las máquinas virtuales a otro host que puede estar en otra parte del centro de datos o incluso en otro edificio. Por lo tanto es aconsejable valorar si realmente es necesaria una redundancia 2N+1, o incluso 2N para estos tipos de entornos. Quizás sería aconsejable la migración a una redundancia N, y la capacidad ganada administrarla para un futuro crecimiento del centro de datos.

Una vez detectados los crecimientos a futuro de nuestra infraestructura IT, es necesario conocer cómo se va a comportar nuestro centro de datos ante esta nueva demanda de recursos. Un buen sistema DCIM cuenta con simuladores de escenarios “what if”, en el cual se puede representar cómo reaccionará el data center en términos de energía y climatización. Incluyendo una simulación CFD (Dínamica de Fluidos Computacional) podremos simular en tres dimensiones el comportamiento de la temperatura de nuestro centro de datos según las nuevas cargas añadidas y la detección de posibles puntos de calor generados por los nuevos equipos instalados.

Si además la plataforma de gestión DCIM dispone de simulación de impacto en la infraestructura, podemos usarla para ver qué equipos se ven afectados, por ejemplo ante un parón de una UPS, y ver qué carga de compensación asume la otra rama de la UPS y todas las protecciones eléctricas desde esta UPS redundante hasta el equipo final en el rack. Esta simulación de impacto, también nos puede ayudar para diseñar un nuevo modelo de redundancia, dotando de menos necesidades a racks donde se incluyan equipos de desarrollo o con alta disponibilidad a nivel de virtualización, centrando los recursos en los elementos más críticos del centro de datos como pueden ser las zonas de comunicaciones o de almacenamiento.

En resumen, para poder tener una buena gestión de la capacidad es fundamental que exista una buena comunicación entre los diferentes departamentos involucrados: gestores del negocio, responsables IT y administradores del centro de datos. Con esto podremos adelantarnos a las necesidades de la empresa. La virtualización puede ser una gran aliada para gestionar la capacidad y ajustar la redundancia física según la criticidad del servicio. Importante detectar los picos de carga de nuestra instalación y no gestionarla a través de la medida del consumo de energía, ya que puede haber procesos puntuales que supongan un consumo alto puntual que pueda hacer que nuestra infraestructura se venga abajo.

Todo esto, apoyado en un buen sistema de gestión que nos ayude a visualizar todos los parámetros necesarios, nos permitirá administrar de manera eficiente la capacidad de nuestro centro de datos.

El elefante y los hombres con ojos vendados

Una antigua historia que aparece por primera vez en India hace muchos siglos, cuenta cómo varios hombres con ojos vendados examinan a un elefante. El que toca la trompa dice: “Es una manguera”. El que toca la oreja dice: “Es una abanico”. El que examina la pierna, opina que es una columna, el que explora la punta de la cola concluye que es una brocha… y así sucesivamente. Las vendas en los ojos les impiden percibir el conjunto y llegar a la conclusión correcta.

Las diferentes versiones de la historia presentan diferentes desenlaces. En unas, los hombres se enzarzan en una pelea de mayor o menor grado de violencia; en otras, aparece un personaje sabio (y sin venda en los ojos) que les hace ver lo que está ocurriendo y por qué están cometiendo un error. Y en muy pocas, los hombres paran de pelear y empiezan a intercambiar la información para obtener la visión de conjunto – y en este caso eventualmente llegan a definir correctamente el objeto observado sin una ayuda externa.

Esta historia se ha ido propagando a través de diferentes culturas y épocas, y es tan actual hoy como hace siglos. Esperad: quizás hoy es más actual que nunca, porque vivimos en un mundo de especialistas. He visto médicos especialistas en una clínica con problemas para ponerse de acuerdo para tratar un paciente. El tratamiento que le ayuda a un órgano le hace daño a otro. En ese momento pensé: ¿Aquí no haría falta un “especialista” en… integración?

Volviendo a la historia, yo no la conocía hasta que apareció en un video de Schneider Electric sobre su herramienta  DCIM. Uno de los grandes beneficios de DCIM es que integra los datos del mundo “Facility” con los del mundo “IT”, produciendo una visión integral que permite tomar decisiones basadas en la visión de conjunto. Decisiones que definitivamente aportan beneficios a las empresas.

Curiosamente, en este mundo de especialistas, hay muchas empresas que aún no le dan a la integración la importancia que tiene. Cuando en la empresa no existe el cargo de Director de Centro de Datos a quien le reporten los responsables de IT y de Facility, (o un CIO que esté suficientemente cerca de estos responsables) ¿qué creéis que ocurre? Sí, lo adivinasteis: normalmente los dos responsables – el de IT y el de Facility – coinciden en la conclusión de que no necesitan DCIM (!)

Y ahora, para que nadie se sienta ofendido, volvamos a recordar que lo que les pasa a los responsables de IT y de Facility, también les pasa a muchos otros profesionales. Y como hemos visto, a los religiosos. Ya hemos hablado de los médicos, pero también les pasa a los economistas, abogados, etc., ¿Y qué decís de los típicos conflictos entre las ventas y la producción? ¿Y de los comerciales y los técnicos en las empresas informáticas? Personalmente yo ahora me siento como el que dice: “De esta cuerda tengo un rollo muy grande”.

Así que estamos hablando de mal de muchos. ¿No deberíamos hacer algo?

……………………………………………………………………………………….

La sabiduría contenida en el cuento del elefante tiene mucho más alcance que el comentado en esta entrada de blog.

https://www.youtube.com/watch?v=NP45Ju2h9O4

El video que se ve en este link fue probablemente (y sin poderlo confirmarlo del todo – porque así es Internet)  creado por un importante autor de películas animadas Richard Willaims. La película de 4 minutos, con un mensaje muy potente, fue galardonada como Película Destacada del Año y exhibida en los festivales de Londres y Nueva York.

¿Vale la pena?…implantar DCIM

Desde hace varios años fallan las predicciones de los analistas de mercados respecto a la adopción de  soluciones DCIM. Teóricamente, DCIM tiene una enorme capacidad de ahorrar costes, energía y esfuerzos en los Centros de Datos. Por tanto su nivel de adopción debería avanzar mucho más rápido. Máxime, cuando las empresas buscan con tanto empeño ahorro de costes y todos proclamamos la necesidad de ahorrar energías.

Tradicionalmente, la gestión de un Centro de Datos la llevan dos departamentos independientes: “IT” (que se ocupa de los servidores, comunicaciones y de la técnica de Sistemas) y “Facility” (que está a cargo de la infraestructura física como espacios, suelos, refrigeración y consumos de energía). Esta separación tradicional es uno de los principales obstáculos para una gestión optimizada, porque para lograr esta optimización hay que compartir datos y gestionar las dos facetas de una forma integral.

Sólo un ejemplo por muchos otros posibles: Las personas que compran servidores (IT) no están motivadas para comprar servidores energéticamente eficientes. La cuenta de fuerza eléctrica normalmente la paga “Facility” y si la repercute, típicamente lo hace por m2 ocupados.

Muchas de las empresas que ya han adoptado DCIM observan que DCIM “les abruma” con una gran cantidad de datos. En estos casos muy probablemente ha faltado un paso en la implementación  del DCIM. Una cosa es tener datos y otra obtener métricas – convertir los datos en información útil para optimizar la gestión del Centro de Datos.

Pero finalmente – y paradójicamente – el obstáculo más importante que estamos viendo es la alta integración y cobertura funcional de los productos DCIM existentes. Dado el  hecho que la Gestión de Centros de Datos es un tema de considerable complejidad, en muchas empresas se han desarrollado sus propias herramientas. Estas herramientas, sencillas pero pragmáticas, resuelven típicamente los dos o tres problemas más difíciles de gestionar. Una vez hecho esto, los gestores pierden el principal motivo para incorporar herramientas de gestión más completas. Y con ello, la posibilidad de ahorrarse muchos más esfuerzos, mucha más energía y más costes.

Ante esta situación, la solución que propone Software Greenhouse es un enfoque incremental de la implantación DCIM: ir construyendo la solución completa, alrededor de lo que ya la empresa usuaria ha resuelto con sus desarrollos propios. Extraer del DCIM aquellas funcionalidades que resuelvan el “problema número 3, 4 y 5” e integrarlo con lo que ya existe y funciona. Después ir añadiendo más funcionalidades, a medida que se vayan comprobando los beneficios de este enfoque.

Para más información, vean la presentación de Juan José Garrido en III Smart Energy Congress de enerTIC:http://www.swgreenhouse.com/noticias-eventos/26-noticias/263-software-greenhouse-participa-en-el-3-smart-energy-congress