El concepto de virtualización, aplicado a muy diversos campos, es motivo de constantes lanzamientos de productos por parte de fabricantes; por otra parte, servidores virtuales y VPNs (Redes Privadas Virtuales) son soluciones de común instalación entre las empresas hoy en día. Dentro de este marco, aunque de forma incipiente aún, emerge también con fuerza el almacenamiento virtual como una de las tendencias que marcarán este mercado del storage en los próximos años.
Pablo Troyón, director de Ventas de Almacenamiento para España y Portugal de IBM apunta que «en relación al número de transacciones comerciales que tienen que ver con el almacenamiento, el mercado de virtualización es todavía bastante pequeño. Es un mercado emergente y promete un buen futuro «. En torno a esta idea se mueve también José Ángel Villalón, director de Marketing y Desarrollo de Negocio de StorageTek (empresa recientemente adquirida por Sun), quien ratifica que «nos encontramos en plena rampa de lanzamiento de la virtualización».
En este sentido, habría que definir primero qué significa en términos generales la virtualización aplicada al almacenamiento y en qué estadio se encuentra en el momento actual. Sara Martínez, Enterprise Marketing Manager de la división StorageWorks de HP describe técnicamente el concepto como «una abstracción transparente del almacenamiento a nivel de bloque, es decir, que con la virtualización se separa el acceso lógico a los datos del acceso físico a los mismos». Distingue, además, tres niveles: a nivel de servidor, de red y de cabinas de almacenamiento. Daniel Calvo, responsable de preventas de EMC para la región Iberia, expone la situación razonando que «el concepto de virtualización lleva en activo muchos años, por ejemplo, cuando un servidor no ve la cabina completa sino sólo los volúmenes que le pertenecen, y otras tecnologías que son completamente transparentes para el usuario. Lo que es innovador ahora es que la virtualización ha evolucionado a un estadio nuevo en el que se ofrece una solución completa. Ya no se trata de virtualizar volúmenes dentro de una cabina sino entre cabinas heterogéneas y de diferentes fabricantes». Troyón, de IBM, resume la idea del siguiente modo: «el almacenamiento virtual, como se entiende actualmente en el mercado, consiste en la oportunidad de utilizar productos de almacenamiento de hardware de fabricantes diversos para tener una infraestructura heterogénea que sea percibida por los servidores como una reserva de capacidad única». Asimismo, el fenómeno de la tecnología virtual no viene a sustituir los sistemas de almacenamiento presentes en el mercado, sino que pretende ser complementario. Juan Rodríguez, Country Manager de Brocade para España y Portugal, considera que se trata de «un sistema complementario a los tres grandes sistemas de almacenamiento DAS, SAN y NAS. Pero es en el segmento SAN donde la virtualización tiene un papel más importante que desarrollar. Gracias a ella, la gestión de la SAN será más sencilla y reducirá el efecto de gestionar diferentes «islas aisladas» dentro de la empresa».
Conviven, en conclusión, distintos niveles de virtualización en el almacenamiento hasta llegar al último paso, todavía en sus inicios, que consiste en alcanzar a toda la red de almacenamiento, independientemente del tipo de sistemas utilizados o de los proveedores de los mismos.
La tecnología virtual aplicada al almacenamiento nace a raíz de la problemática generada por el crecimiento constante de capacidad instalada: «en términos físicos estamos hablando de entre un 30 y un 60 por ciento anual acumulado» confirma Troyón. Por su parte, Juan Rodríguez, sitúa su origen «en los años 60, cuando los sistemas operativos mainframe fueron diseñados con la capacidad de compartir recursos entre programas independientes. La memoria virtual y los dispositivos en cinta virtuales son utilizados como ejemplos de productos que presentan una visión virtual de un conjunto de recursos físicos». Su aparición es debida al aumento del volumen de datos en las empresas que buscan un espacio de almacenamiento mucho mayor que el disponible en los dispositivos reales.
En este sentido, Troyón insiste en que el problema se agudiza sobretodo «a partir de finales de los años 90, con la explosión de la utilización de Internet. Esto hace que la mayor parte de las instalaciones puedan tener discos de fabricantes diversos, que han proliferado en la base instalada a lo largo del tiempo, consecuencia de diferentes compras. Una vez que tenemos una instalación muy diversa, lo que necesitamos poder hacer es manejarla como si fuera un todo único».
Juan Rodríguez, de Brocade, cita tres necesidades del mercado que motivan la irrupción de estas tecnologías. En primer lugar, se encuentra la complejidad de la infraestructura y su gestión, combinada con unos presupuestos para TI cada vez más reducidos. Cuando hay recorte de gastos y el volumen de datos continúa creciendo, la gestión centralizada, a través de la virtualización, puede ser una salida. En su segundo término, Rodríguez destaca que «las emergentes tecnologías de virtualización son más flexibles que las primarias tecnologías basadas en host y array y prometen ser más efectivas para gestionar el almacenamiento en las empresas». Por último, las nuevas aplicaciones cumplen tareas específicas como migración de datos y actualizaciones no disruptivas, replicación heterogénea y mirroring, lo que supone una mejor evaluación por parte de los clientes en términos de ROI.
Aunque se trate de un mercado situado todavía en la rampa de despegue, las condiciones son óptimas para su desarrollo. Según datos de IDC facilitados por Brocade, el mercado mundial de software para almacenamiento –en el que se incluyen la mayor parte de las tecnologías de virtualización- alcanzará una cifra este año de 10.700 millones de dólares, frente a los 5.470 millones de dólares obtenidos en 2000.
En lo que se refiere a cuestiones más relativas al crecimiento en el caso del hardware en España, comenta Troyón que «se trata de un mercado que está creciendo marginalmente, es decir, entre el 2 por ciento y el 5 por ciento año a año (lo cual no es especialmente boyante)». Por el contrario, está creciendo mucho más el mercado de software que el de hardware y, dentro de este último, «está creciendo mucho más el entorno de «mid range», gama de entrada, almacenamiento para entorno Windows y UNIX, que el almacenamiento de gama alta clásico, de grandes instalaciones y gran cuenta», confirma el directivo de IBM.
En Europa, la evolución es muy diversa según las regiones. Hay mercados muy maduros, como Alemania y Reino Unido, donde no se esperan grandes crecimientos y hay otros emergentes como el Este de Europa o Turquía e Israel, donde el ritmo de crecimiento está por encima del 10 por ciento anual. «En el caso de España y el resto del Sur de Europa, la previsión es que nos quedemos en un lugar intermedio, es decir, este año superaremos el 5 por ciento de crecimiento pero sin llegar al doble dígito» confirma Troyón.
Sin embargo, no se pueden obtener datos segmentados dentro del propio software de almacenamiento, por lo que es muy complicado saber cual es la cuota de mercado de este nicho. Lo que sí obtiene un cierto consenso entre empresas y analistas son los nombres de las firmas que han apostado y juegan un importante papel en el almacenamiento virtual, a saber, HP, IBM, EMC, HDS, Sun-StorageTek, Symantec-Veritas, Brocade, Network Appliance, Dell.
Cuando hablamos de los beneficios que una solución de virtualización del almacenamiento ofrece a las empresas, cada fabricante hace hincapié en aquellas en las que sus productos son más fuertes. No obstante, hay algunas comunes a todo sistema de almacenamiento virtualizado como la optimización del espacio disponible y una mayor facilidad de gestión, lo cual redunda en un aumento de la productividad y en el ahorro de costes.
• Simplicidad en la gestión. La mayor parte de estos sistemas se realizan desde «un único punto central» válido para cualquier dato o sistema, «con lo que se consigue una mayor productividad y agilizar los plazos de implantación porque se aprovecha la infraestructura ya existente» revela Javier Orejón, de HDS (Hitachi Data Systems).
• Menor tiempo destinado al mantenimiento de los sistemas. Según Daniel Calvo, de EMC, entre el 20 y el 30 por ciento del tiempo de los administradores de almacenamiento está dedicado a mover volúmenes físicamente entre los distintos sistemas de almacenamiento: por falta de espacio, en máquinas con más o menos potencia… «Anteriormente, estos procesos eran manuales. Con la capa de virtualización conseguimos reducir este tiempo a cero de tal modo que sea esa capa de virtualización la que mueva los datos sin intervención humana. Uno de los objetivos que se está buscando con la capa de virtualización en la aproximación de EMC es eliminar el tiempo asociado a las paradas planificadas, es decir, aquellas provocadas por la necesidad de realizar tareas de mantenimiento de una determinada máquina». Con esto se consigue liberar el activo de la compañía, no parar sus procesos productivos y volver después a la situación previa, todo de forma transparente y automatizada. «Esto se puede añadir a una red SAN donde esta problemática empieza a ser importante», destaca Calvo.
Cuando se utiliza un software de virtualización que permite gestionar los activos desde una interfaz de gestión única también resulta beneficiado el mantenimiento, ya que, destaca Troyón, «una única persona puede ocuparse del conjunto de la instalación y no es necesario que el nivel de conocimiento del administrador sea muy profundo, además de no tener que estar al corriente del funcionamiento interno de los productos de los diferentes fabricantes que estén virtualizados. No sólo en el mantenimiento, sino en la operación continua, se consiguen significativos ahorros de coste en la gestión». Refiriéndose a una solución instalada del fabricante Computer Associates, Antonio Turmo, director de operaciones de unidad de negocio en la empresa de consultoría gedas iberia, dice que «ha permitido hacer más eficiente el uso de las bibliotecas automatizadas, eliminando el 90 por ciento de nuestras cintas y los suficientes procesos manuales como para eliminar tres horas de trabajo de manejo de dichos dispositivos cada día».
• Mejor utilización del espacio en disco. Al concentrar desde un punto de vista lógico todo el almacenamiento físico disponible se alcanzan mayores tasas de utilización del mismo, «reduciendo los costes de adquisición y mantenimiento de hardware» indica Jose Emilio Permuy, director general de Silicon Graphics.
• Consolidación de servicios. Las tecnologías de virtualización permiten consolidar servicios que antes utilizaban sistemas aislados, procurando así, no sólo una mejora en la utilización de recursos y en la gestión de los mismos, «sino posibles ventajas competitivas al mejorar el flujo de trabajo de la organización, eliminando cuellos de botella relacionados con la transferencia de datos», revela Permuy.
• Almacenamiento por niveles. Las empresas invierten grandes cantidades en sistemas de almacenamiento de altas prestaciones para hacer frente a sus aplicaciones de misión crítica. Habitualmente estos sistemas de almacenamiento deben ser replicados en centros remotos para garantizar la continuidad del negocio ante posibles contingencias, lo que exige duplicar la inversión. Las nuevas tecnologías de virtualización permiten que la duplicación se haga en sistemas de características diferentes, de menor coste, con el consiguiente ahorro.
Rehabilitación o reciclaje de las inversiones en hardware. Al poder manejar hardware heterogéneo, cuando una compañía decide invertir en otro tipo de hardware por prestaciones, no hace falta que se deshaga del hardware más «viejo». Como indica Troyón, «puede virtualizarlo, meterlo dentro de un paraguas común, desviar determinadas aplicaciones más exigentes a su nueva adquisición y mantener su hardware un poquito más cerca de la obsolescencia para aplicaciones de un segundo nivel o aplicaciones de almacenamiento menos rabioso».
Ampliación de la vida útil de la inversión realizada en hardware. Si el producto de virtualización es un producto de software, «lo que permite es mantener en funcionamiento un hardware que seguramente, de otra manera, tendríamos que eliminar y reemplazar por otro. Si antes teníamos, por ejemplo, unos tiempos de amortización de 3 o 4 años, ahora no hay ninguna razón que nos impida mantenerlo 5, 6 o 7 años, porque el rendimiento adicional lo produce la optimización que hace el software y porque nos ahorramos a su vez el coste de ese reemplazo» explica Pablo Troyón. En este sentido, cuanta más capacidad haya instalada, más ahorros se consiguen. «En casos a partir de 6 o 7 Terabytes es cuando empezamos a ver un ahorro de costes significativo».
Sara Martínez, de HP, considera que «gracias a ciertas características, como la expansión dinámica y los snapshots virtuales libres de capacidad, un cliente sólo necesita comprar la capacidad que realmente precisa. Ya no será necesario adquirir el doble o el triple de la capacidad necesaria en previsión de futuros crecimientos».
Dentro de las características que van a definir el almacenamiento en los próximos años ocupa un lugar muy importante la virtualización. Junto a ella, destacan otras características, algunas relacionadas con esta tecnología, entre las que se pueden citar la automatización de los procesos, el trabajo sobre estándares abiertos, la interoperabilidad entre entornos heterogéneos, la continuidad de negocio e ILM o gestión del ciclo de vida de la información.
Juan Rodríguez, de Brocade, afirma que «uno de los puntos clave hacia los que tiende el mercado de almacenamiento es hacia la fusión de SAN y NAS para poder contar con las ventajas de ambas en una única solución. Pero hasta que llegue este momento, el modelo más utilizado es la centralización de los recursos de almacenamiento a través de redes SAN que permita consolidar la información de una compañía en un único servidor».
Para Pablo Troyón, de IBM, la clave es que los productos de almacenamiento, tanto de hardware como de software, simplifiquen significativamente todo el proceso de gestión y destaca que «estamos hablando de instalaciones que alcanzan ya unos volúmenes, en número de Terabytes o incluso de Petabytes, que hacen que la gestión manual sea prácticamente inviable. Toda esa masa de información acumulada tiene que ser gestionada de la forma más automática posible». En el automatismo, la virtualización tiene mucho peso y, a este respecto se refiere José Ángel Villalón, de StorageTek cuando afirma que «el almacenamiento virtual consiste en dotar a los sistemas de almacenamiento de una mayor inteligencia con el objetivo de realizar una gestión lógica del almacenamiento. Al conferir una mayor inteligencia a los sistemas, se incrementan los niveles de automatización, lo que, además, permite reducir los riesgos, la complejidad de la gestión del almacenamiento y sus costes o TCO, que constituyen los principales retos del almacenamiento hoy en día».
Otra característica de especial importancia es el trabajo con estándares abiertos. Hay determinadas funciones en almacenamiento, tanto en disco como en otros soportes, que siguen siendo propietarias. «A la mayor parte de los clientes», explica Troyón, «eso les supone una cierta incomodidad porque les vincula forzosamente a un fabricante. Para poder mantener la libertad de elección, hay que ser capaces de interoperar realmente en entornos heterogéneos». También en este punto la aplicación de un entorno virtual facilita dicha interoperabilidad.
Otro importante punto de desarrollo será conseguir la continuidad de negocio. Si durante los últimos 5 años se ha entendido básicamente como la capacidad de funcionar con un backup, ahora esa visión, (pasar de trabajar en un solo site a trabajar en dos), está evolucionando para llegar a un punto en el que se pueda trabajar en un número indefinido de localizaciones geográficas dispersas. «Es el concepto de Grid Computing aplicado al almacenamiento», explica Troyón, quien añade que «contando con que pueden pasar muchas cosas, me atrevo a prever que la virtualización será probablemente un germen de lo que terminará siendo un sistema operativo dentro de la SAN. Según la SAN vayan creciendo, tanto en capacidad como en ramificaciones, y según se vayan dispersando a través de diferentes lugares geográficos -es decir, según se vaya creando ese Grid que mencionaba antes- la única forma de mantener este Grid integrado bajo una lógica coherente es con una capa de software bastante sofisticada pero autónoma, que es lo que al final se llama sistema operativo».
La estrategia de HDS (Hitachi Data Systems) está también enfocada a estas líneas de trabajo y está sustentada sobre cuatro pilares: «virtualización, la estandarización de la gestión de la información, la continuidad de negocio y herramientas para la gestión del ciclo de vida de la información. Estos cuatro puntos son los que están marcando un cambio en la industria del almacenamiento» concluye Javier Orejón, director de Marketing y Preventa de HDS.
Fernando Martínez, director técnico de Symantec Ibérica, resume todas estas ideas en una frase «será un almacenamiento que tenderá a la virtualización total, distribuido en múltiples localizaciones, de facil manejo y acceso y que posiblemente combinará varios tipos de dispositivos físicos: cintas, discos, CD’s, lasser disks, etc; pero para el usuario simplemente será espacio de almacenamiento». n




