Deep learning, aprendizaje profundo para construir centros de datos inteligentes

Deep learning, aprendizaje profundo para construir centros de datos.El aprendizaje profundo y el aprendizaje automático a menudo se consideran sinónimos. El Aprendizaje Profundo es, de hecho, una forma especializada de Aprendizaje Automático que enseña a las computadoras a hacer lo que es natural para los humanos, es decir, aprender con el ejemplo. En Deep Learning, un modelo de computadora aprende a realizar tareas de clasificación utilizando datos en forma de textos, imágenes o sonido. El modelo de computadora se entrena utilizando grandes conjuntos de datos etiquetados y arquitecturas de redes neuronales que contienen muchas capas.

IntroducciónIntroducción

Con Deep Learning, podemos lograr una precisión que a menudo supera el rendimiento a nivel humano. El aprendizaje profundo puede haber sido conceptualizado en la década de 1980, fue solo recientemente que comenzamos a aplicarlo a diferentes verticales de la industria . Esto se debe principalmente a que la tecnología requiere grandes conjuntos de datos y una gran capacidad informática en forma de GPU o unidades de procesamiento de gráficos.
El aprendizaje profundo lleva a cabo un aprendizaje de extremo a extremo en el que se proporciona a una computadora grandes conjuntos de datos sin procesar y una tarea de clasificación que realizar, y el trabajo se completa automáticamente sin ninguna supervisión. Si bien el aprendizaje automático requiere que elija características y un clasificador para ordenar las imágenes, el aprendizaje profundo lleva a cabo la extracción y modelado de características por sí solo.

Hoy en día, Deep Learning encuentra aplicaciones en ámbitos que van desde automóviles sin conductor, reconocimiento de imágenes, restauración de colores en imágenes en blanco y negro, análisis de comportamiento en tiempo real y traducción para leer el texto en videos, robótica, generación de voz e incluso composición musical. Entonces, ¿ por qué los centros de datos deberían ser una excepción ?

Data center en la mira

La creciente popularidad de los servicios basados ​​en la nube ha resultado en la proliferación de centros de datos a gran escala. Estos centros de datos enfrentan una serie de desafíos operativos en el día a día. Uno de esos problemas es la administración de energía. La creciente conciencia ambiental ha ejercido una enorme presión sobre la industria del centro de datos para mejorar su eficiencia operativa. Según las estadísticas actuales, los centros de datos están utilizando el 2% de la energía producida a nivel mundial . Incluso una ligera reducción en este consumo de energía puede generar ahorros significativos.

Un centro de datos a gran escala genera millones de puntos de datos a través de numerosos sensores todos los días. Estos datos apenas se usan para ningún otro propósito que no sea el monitoreo. Ahora que tenemos capacidades avanzadas de potencia de procesamiento y monitoreo, podemos aprovechar las capacidades de aprendizaje profundo para mejorar la eficiencia del centro de datos y guiar las mejores prácticas.
Debido a la complejidad de las operaciones y la gran cantidad de datos de monitoreo disponibles en un centro de datos, las soluciones de aprendizaje en profundidad son ideales para optimizar las operaciones del centro de datos. Cada centro de datos tiene una amplia variedad de equipos mecánicos y eléctricos junto con sus esquemas de control y puntos de ajuste. La interacción entre estos sistemas dificulta el monitoreo de los centros de datos utilizando técnicas de ingeniería tradicionales. El uso de técnicas de modelado predictivo a menudo produce errores significativos debido a las complejidades involucradas.

En un centro de datos típico a gran escala, hay muchas combinaciones posibles de hardware y software que dificultan determinar cómo se puede lograr la eficiencia. Probar cada combinación sería difícil, si no imposible, dadas las limitaciones de tiempo, las fluctuaciones en la carga de trabajo y la necesidad de mantener un entorno de servidor estable.

Para abordar los problemas de complejidad y abundancia de datos, se aplican soluciones de aprendizaje en profundidad en las que se eligen redes neuronales como marco para la capacitación de modelos de eficiencia de centros de datos. Las redes neuronales son algoritmos modelados libremente en el cerebro humano que están diseñados para reconocer patrones. Son adecuados para modelar sistemas complejos ya que evitan la necesidad de definir interacciones de características que asuman relaciones dentro de los datos. La red neuronal busca automáticamente los patrones e interacciones entre las características para crear un modelo que se ajuste mejor.
Hoy en día, los modelos de aprendizaje profundo se están probando para mejorar todas las facetas de la gestión del centro de datos, incluida la planificación y el diseño, la gestión de las cargas de trabajo fluctuantes, garantizar el tiempo de actividad y reducir las emisiones de energía.

Ejemplos de centros de datos inteligentesEjemplos de Centros de datos Inteligentes

Planificación de capacidad

Con su capacidad de pronosticar la demanda con precisión, las redes neuronales se pueden usar para planificar la capacidad y garantizar que los centros de datos no se queden sin electricidad, energía, refrigeración o espacio. La planificación de la capacidad puede ser de gran ayuda para las organizaciones que están configurando un nuevo centro de datos o reubicando uno existente.

Teniendo en cuenta los centros de datos de pérdida de energía que enfrentan, es imperativo que se desarrollen modelos de predicción precisos utilizando técnicas de aprendizaje profundo. La planificación precisa de la capacidad puede ayudar a los centros de datos a decidir qué cantidad de cada recurso se necesita para un uso óptimo de la energía: cuántos servidores se requieren o cuánta potencia de enfriamiento y electricidad se necesitan para ejecutar estos servidores a una capacidad óptima.
Los algoritmos de aprendizaje profundo también se pueden usar para decidir la forma más eficiente de configurar un centro de datos mediante la determinación de la ubicación física de los servidores y otros equipos de hardware.

Optimización del consumo de energía.

Como se discutió anteriormente, todos los centros de datos a gran escala actúan como cerdos de energía. Los centros de datos enfrentan presiones de los ambientalistas para reducir sus emisiones de carbono. Las soluciones de aprendizaje en profundidad se pueden utilizar para optimizar la refrigeración dentro de las instalaciones del centro de datos mediante el monitoreo de variables como la temperatura del aire, la carga de energía y la presión del aire en la parte posterior de los servidores.

Los algoritmos de aprendizaje profundo pueden estudiar la infraestructura de TI para detectar qué servidores se están ejecutando a cuánta carga de trabajo, de modo que la alta carga de trabajo pueda cambiarse a servidores más nuevos y eficientes energéticamente, lo que lleva a una reducción general del consumo de energía. Estos algoritmos también se pueden usar para determinar el mejor momento posible para realizar una tarea.

Prevención del tiempo de inactividad

Con su capacidad única de detectar patrones en conjuntos masivos de datos, las redes neuronales se pueden utilizar para detectar anomalías en los datos de rendimiento que de otro modo serían difíciles de detectar.

Los modelos de aprendizaje profundo se pueden usar para analizar datos de equipos como los sistemas de enfriamiento para predecir cuándo podrían fallar. Esta información se puede utilizar para programar el mantenimiento preventivo que puede mejorar la vida útil del equipo. Además, los clientes pueden ser notificados de antemano para que puedan crear una copia de seguridad antes de que ocurra el tiempo de inactividad.

El aprendizaje profundo también se puede utilizar para modelar diferentes configuraciones del centro de datos para mejorar su capacidad de recuperación. Si ocurre el tiempo de inactividad, los algoritmos se pueden usar para detectar la causa raíz de la falla más rápido.

Los centros de datos están floreciendo, y también lo son los problemas operativos similares. Ya es hora de que cambiemos de análisis de datos tradicionales a tecnologías emergentes como el aprendizaje automático y el aprendizaje profundo para mejorar la eficiencia operativa y mitigar los riesgos.

Leer también:Entendiendo los estándares de cumplimiento y auditoría del centro de datos; El centro de datos del futuro, ¿cómo será?; Beneficios principales del Big Data