Reinventando el data center para abordar la explosión en los volúmenes de datos
Israel Serrano, Country Manager, Infinidat Iberia
29/11/2019Durante la última década, la explosión en la esfera de datos del mercado de consumo se está viendo sobrepasada por el crecimiento exponencial de los datos en el ámbito de los negocios. Según datos de un reciente informe de IDC patrocinado por Seagate, en 2025 los datos almacenados por las organizaciones empresariales en todo el mundo alcanzarán los 13,6 Zettabytes, pasando de suponer en torno a un 45% del total de los bytes instalados a representar más del 80%. Esto presenta desafíos sin precedentes, pero también trae oportunidades tanto para las propias empresas como para los proveedores de servicios, que habrán de adoptar un nuevo enfoque para construir y escalar las infraestructuras de almacenamiento.
Hoy en día, tecnólogos de todas las industrias se enfrentan a un dilema similar, como consecuencia del tsunami de la transformación digital. Los arrays de almacenamiento tradicionales, centrados en el hardware, son costosos, difíciles de gestionar y con órdenes de magnitud demasiado pequeñas para la era de los datos que nos aguarda. El futuro puede estar en el software.
Centros de datos a escala Petabyte: requerimientos esenciales
La transformación digital está aumentando exponencialmente las demandas de las infraestructuras de TI. La escala lo cambia todo. Y el almacenamiento de datos, como base de estas infraestructuras, no es una excepción. La próxima generación de aplicaciones no puede construirse sobre infraestructuras empresariales tradicionales, porque en muchos apartados desaparecen las economías de escala y se resiente la experiencia del usuario que requieren los entornos multi-Petabyte, radicalmente diferente de lo que ofrecen las TI tradicionales de la era de los terabytes.
Almacenamiento como servicio
Cada vez más empresas están abandonando el modelo CapEx (basado en la capitalización del hardware) para adoptar modelos de pago por uso (OpEx) en busca de una flexibilidad operativa y financiera. Pero, a diferencia de los proveedores de nube pública, los proveedores de infraestructuras on-premises históricamente han sufrido para satisfacer esa demanda, y a menudo acaban por repercutirlo al cliente a través de complejos acuerdos de arrendamiento o requisitos de compromiso que hacen imposible esa flexibilidad.
En el caso de Infinidat, por ejemplo, acabamos de lanzar en España el programa FLX, que permite consumir el almacenamiento de datos como servicio, a través del pago de una cuota periódica por capacidad y por mes, con una garantía de disponibilidad de datos del 100%, lo que libera a los clientes de preocuparse por su gestión y garantiza que siempre contarán con la última versión del software y la última generación del hardware.
Escalabilidad y agilidad
Los centros de datos operan por lo general en infraestructuras arrendadas o capitalizadas durante períodos de tres, cinco o siete años. Aproximadamente un año antes, se adquiere nuevas infraestructuras para que valioso personal se encargue de migrar los datos y probar el nuevo sistema. Luego, los sistemas antiguos se retiran o se relegan a cargas de trabajo secundarias. Las tecnologías más recientes aportan la financiación y la independencia operacional para mover los datos a voluntad, permitiendo que los recursos humanos más valiosos se centren en crear nuevas fuentes de ingresos para la empresa en lugar de preocuparse por los ciclos de vida del hardware o de las migraciones de datos.
Modelos operativos
Los conjuntos de datos a escala Petabyte requieren un modo de operación que proporcione independencia para mezclar cargas de trabajo sin penalización en el rendimiento, la disponibilidad o los costes. En el caso del marco la tecnología de Infinidat, por ejemplo, la capacidad de almacenamiento escala a medida que crecen los conjuntos de datos o se crean cargas de trabajo temporales, pero también se reduce a medida que se eliminan, se transforman o se desplazan a las aplicaciones y a los usuarios. Además, el cliente puede monitorizar y gestionar todos los conjuntos de datos como una sola entidad.
El futuro: Inteligencia artificial y analítica avanzada
De todo lo dicho cabe deducir que el futuro está en los datos, y no en el hardware que los soporta. El futuro, por tanto, reside en la gestión de esos datos, y en el horizonte aparecen tendencias que se aprecian nítidamente, con la inteligencia artificial como punta de lanza.
Un ejemplo de ello es la capacidad de caché neuronal, consistente en algoritmos de machine learning que localizan los patrones de acceso a los datos y asignan recursos según sea necesario, lo que permite al sistema decidir por sí mismo qué datos son más o menos relevantes en función del uso que de ellos hacen las aplicaciones de negocio. Los datos utilizados frecuentemente se almacenarán automáticamente en la RAM (mucho más rápida que los medios Flash), mientras que en Flash se almacenarán los datos “calientes” y los datos que se utilizan con menos frecuencia serán almacenados en unidades SAS mucho más económicas.
En definitiva, el futuro está marcado por la transformación digital, y ésta, a su vez, exige tratar volúmenes de datos sin precedentes. Los Petabytes son los nuevos Terabytes. Las empresas deberán potenciar su ventaja competitiva basándose en los datos, y la elección de una infraestructura de almacenamiento moderna y a prueba de futuro, que crezca y que aprenda a escala multi-Petabyte, es una decisión crítica en el presente que afectará decisivamente en el futuro.