Como nueva en ventas y mercadeo en Custom Information Services, constantemente me bombardeaban con términos técnicos que no podía entender. Fue así hasta que hice un poco de investigación y descubrí la forma fácil de entender términos o preguntas como “¿Cuál es la diferencia entre virtualización y computación en la nube? Al principio, no podía siquiera explicarles el significado de los términos “virtualización” o “la nube”, mucho menos cuáles son las diferencias entre éstos. Debido a que mi empresa se dedica a implementar y soportar estas tecnologías, tenía que entender estas definiciones… ¡Y rápido!
La virtualización es una tecnología computacional que permite a un usuario acceder a múltiples dispositivos físicos. Otra forma de verlo es que una sola computadora controle múltiples máquinas, o un sistema operativo utilizando múltiples computadores para analizar una base de datos. El término “virtualización” también puede ser utilizado para cuando se corren múltiples aplicaciones en cada servidor en lugar de solo una; esto a su vez reduce el número de servidores que las compañías necesitan adquirir y administrar. Le permite consolidar sus servidores y hacer más con menos hardware. También le permite soportar más usuarios por cada unidad de hardware, entregar más aplicaciones y correr aplicaciones más rápidamente. Para más detalles sobre virtualización puede descargarVirtualizationWhitePaper.pdf (inglés).
La computación en la nube ofrece una infraestructura escalable de software remoto, ahorrando mano de obra, equipos y costos eléctricos. Económicamente hablando, los recursos virtuales son típicamente más económicos que los recursos dedicados conectados a una computadora personal o una red. Con la computación en la nube, los programas que usted utiliza no corren en su computadora personal, sino que están almacenados en servidores que están en otro lugar y son accedidos a través de la Internet. Si su computador tiene problemas, el software aún estará disponible para utilizarse. Simplemente, la nube es una colección de computadores y servidores que son públicamente accesibles a través de la Internet. Aquí hay algo más que encontré en línea que puede serle útil para entender mejor los servicios en la nube: Microsoft Cloud Services.pdf (inglés).
Una forma de ver el tema es que la virtualización es básicamente una computadora física pretendiendo ser muchos ambientes de computación, mientras que la computación en la nube es muchas computadoras pretendiendo ser un solo ambiente de computación (de ahí la escalabilidad de usuarios). La virtualización provee flexibilidad que va muy bien con la computación en la nube. Más aún, la computación en la nube puede ser definida en base a los contenedores de máquinas virtuales creados utilizando virtualización. La virtualización no siempre es necesaria en la computación en la nube, pero sí puede ser la base de ella. La computación en la nube es una forma de entrega de servicios mientras que la virtualización es un posible servicio que puede ser entregado. Las grandes corporaciones que tienen baja tolerancia a las fallas y requerimientos de seguridad fuertes pueden encontrar que la virtualización es mejor para ellas. Los negocios más pequeños posiblemente se benefician más de un ambiente de computación en la nube, que les permite enfocarse en su misión mientras que dejan los problemas de tecnología para aquellos que pueden hacer más por menos.
En simples palabras, la virtualización provee más servidores con el mismo hardware, y la computación en la nube provee recursos medidos mientras usted paga solamente por los recursos que utiliza. No es raro escuchar personas que utilizan estos términos como si fueran intercambiables, pero realmente son diferentes formas de resolver el problema de maximizar la utilización de los recursos disponibles. Difieren en muchas formas y eso conlleva importantes consideraciones a la hora de decidir entre los dos.
La virtualización como puente a la nube
Fuente: computing.es |
La virtualización se configura como una de las tendencias de mayor impacto en los escenarios TI y, por ende, en el negocio. Inicialmente aplicada a la reducción de costes y la consolidación, la virtualización pone ahora a prueba su potencial en asociación con los avances en automatización y gestión de servicios TI con la mirada puesta en facilitar la evolución que exige el salto al modelo de cloud computing, un entorno en que la virtualización se ha consolidado como tecnología de base o tecnología puente.
La virtualización constituye una de las tecnologías clave para 2011, un año en el que, según Gartner, se habrán desplegado más máquinas virtuales que desde 2001 a 2009. Esta tecnología, que en ningún caso debería llevar la etiqueta de ‘nueva’ puesto que se aplica desde hace décadas en la partición de los mainframe y en la disolución de lo físico por lo lógico en otros entornos como el almacenamiento y el networking, se expande con inusitada fuerza a todos los niveles en los Centros de Proceso de Datos (CPD).
El acicate de la virtualización es evidente y fundamentalmente radica en supotencial para facilitar el aprovechamiento de los recursos y de determinadas arquitecturas frecuentemente infrautilizadas, aunque su alcance es más amplio: agilidad, automatización, flexibilidad o continuidad son conceptos que también entran en su órbita.
En cuanto a la primera aplicación, las arquitecturas x86 constituyen un buen ejemplo y el recientemente publicado Cuadrante Mágico de Gartner de Infraestructura de Virtualización para Servidores x86, en el que aparecen tres líderes -Citrix, Microsoft y VMware y tres jugadores de nicho -Oracle, Parallels y Red Hat- más allá de ser una buena clasificación, es un cuadro que perfila tendencias transportables a otros entornos.
En este específico mercado y según Gartner, VMware lleva la delantera en cuanto a visión y habilidad para ejecutar, lo cual no es extraño ya que la compañía introdujo sus soluciones en el mercado de servidores x86 hace ya una década y, como veterana, ha sido capaz de trasladar el foco desde los costes a otros aspectos que a fin de cuentas son los que garantizan el crecimiento. Y es que como comenta el director técnico de VMware Iberia, Alejandro Solana, “inicialmente utilizada para la reducción de costes, la virtualización de servidores es cada vez más adoptada por las organizaciones para aumentar la velocidad de los procesos, crear soluciones de recuperación ante desastres y mejorar la disponibilidad”.
Por su parte, los otros dos líderes Citrix y Microsoft tienen hoy por separado una cuota de mercado superior a la que sumaban ambas juntas hace un año.Gartner considera que el aumento del peso de Microsoft en este campo se debe sobre todo a la adopción de esta tecnología no sólo por las grandes organizaciones, sino también por cada vez más de empresas de mediano y pequeño tamaño. “A comienzos de 2011, el 21% de los servidores virtuales utilizaban Hyper-V, lo que supone un aumento en la cuota de mercado del 6,2%, y esta tendencia continuará con la llegada de Windows Server 8”, constata el jefe de Producto de Windows Server en Microsoft Iberia, Emilio Paz.
Citrix está sacando partido de su fortaleza en virtualización desktop y expandiéndose en el entorno servidor con su propuesta XenServer, donde juega a dos bandas. “Si bien la alianza de Citrix con Microsoft impulsa en muchos proyectos de virtualización del desktop la solución de Hyper-V”, reconoce el director general de Citrix Iberia, Santiago Campuzano, “la opción de XenServer, basada en tecnología open source, siempre ofrece una alternativa diferente que además queda englobada y soportada desde un único fabricante”.
Gestión, el quidDe la mano de uno, de otro o de varios proveedores, las organizaciones usuarias reconocen de forma generalizada las ventajas de la virtualización, pero tampoco ignoran que la virtualización supone también un reto en tanto que echa por tierra la ortodoxia de las infraestructuras TI tradicionales e implica la reescritura de las reglas que se aplican tanto a la adquisición y la planificación de las TI, como a su despliegue y gestión.
Microsoft ha tomado buena nota de esta realidad y, como señala Paz, “con el nuevo System Center Virtual Machine Manager 2012 seremos capaces de gestionar máquinas de virtuales de VMware y Xen Server, permitiendo a los clientes conservar sus infraestructuras que por ahora no están virtualizadas con Hyper-V”.
La gestión o, quizás mejor dicho, la multigestión, emerge por tanto como un aspecto clave que está llevando a los proveedores a redefinir su enfoque y abrir su foco. Y es que en el futuro, con el punto de mira puesto en el cloud computing, la virtualización y automatización de infraestructuras serán gestionadas por políticas a un nivel de servicios de negocio, lo cual exige el trabajo en armonía de todas las partes de la infraestructura. “Debido a la proliferación de recursos virtuales”, confirma el director de Preventa de la división Enterprise Storage, Servers & Networking de HP Española, Jorge Fernández, “una virtualización carente de una estrategia de gestión sólida no puede cubrir las expectativas; por lo tanto, la verdadera diferenciación se encuentra en las herramientas de gestión y si contamos con una buena estrategia de gestión, podremos optar por soluciones mixtas sin que esto nos genere ningún coste oculto”.
Por otro lado y a razón de la incertidumbre que prevalece y parece estar llamada a mantenerse en el mercado a corto y medio plazo, la advertencia de los expertos apunta a no seguir en exclusiva la visión de un proveedor específico, sino en definir una visión propia que esté en evolución constante en base a un plan estratégico. “A medio plazo”, recomienda el vicepresidente y analista distinguido de Gartner, Thomas Bittman, “alinea tu estrategia de virtualización con el negocio, evita la sobrevaloración de ningún proveedor y se muy consciente de las políticas de precios y el modelo de licenciamiento”.
La nube en el horizonteLa virtualización se ha consolidado como tecnología de base o tecnología puente en el viaje hacia el cloud computing. “El servidor de arquitectura virtualizada x86 es ahora considerado como la tendencia mayoritaria y la vía estratégica hacia el cloud computing, cada vez más presente en todo tipo de organizaciones”, aprecia el director técnico de VMware, Alejandro Solana, que considera que “este año será muy interesante desde el punto de vista de los servicios cloud proporcionados por terceros, que ya proveen de servicios cloud al mercado utilizando nuestras soluciones y tecnologías”.
En esta evolución y teniendo en cuenta, como apunta el director de Marketing y Sistemas Corporativos de Bull Computing Solutions, Carlos Mesa, que “la virtualización de servidores, del puesto de trabajo, de las aplicaciones, del almacenamiento y de las redes constituyen los principales polos en los que se están aplicando distintas tecnologías y niveles de virtualización”, nuevamente la gestión emerge como el reto y así “la integración ordenada y coherente de cada uno de ellos es un factor clave para construir el camino hacia el cloud computing”, subraya Mesa.
En la misma idea insiste Iñigo Olcoz, especialista en Virtualización para EMEA de EMC, para quien, una vez que la mayoría de las empresas han avanzado en la adopción de la virtualización, “los siguientes pasos, con el objetivo de ofrecer un mejor servicio al negocio y la consecución de mayores ahorros, van encaminados a ofrecer servicios de autoprovisión de TI, simplificación en la gestión y operación de sus infraestructuras y una reducción en el time to market de sus productos”.
Conozca las últimas tendencias en virtualización y computación en nube
Fuente: cafecargado.com |
El pasado 20 de setiembre, en el JW Marriott Hotel Lima se llevó a cabo el VMware Forum 2011 en Perú bajo el tema: “Su Nube. Acelere su TI, acelere su negocio”, evento organizado por Mware, Inc. (NYSE: VMW), el líder global en infraestructuras de virtualización y cloud. Vmware proporciona soluciones que permiten a las organizaciones de Tecnología de la Información fortalecer a sus empresas.
La primera ponencia estuvo a cargo de Raghu Raghuram, senior vice president & general manager de MWare y tuvo como eje principal el tema de la creación de una eficiencia operativa y el mantenimiento constante de una red de contactos que puedan respaldar el sistema de seguridad para aplicaciones de cada empresa, de modo que sea posible unificar la misma y la relación que tiene para con sus clientes.
Esto es así ya que son los clientes quienes buscan una optimización en sus medios. Es importante modernizar la central de datos y manejar e implementar las nuevas aplicaciones.
Por su parte Martin D´Ella, gerente regional de marketing de EMC, se enfocó en mostrar cómo reducir costos operativos para poder mejorar la calidad de servicios brindados por una empresa, tomando como punto de inicio la virtualización que se debe iniciar y terminar de la mano de ella.
De esta manera, se desea dar al empresario las armas esenciales para que pueda evolucionar y manejar su negocio de la mejor forma, hasta que logre ser el líder en servicios.
También expuso José R. Ilabaca M., gerente de proyectos – mercado corporaciones de AMERICATELbuscando demostrarle al empresario líder como poder desarrollar el mayor número de integración, siendo la clave la virtualización en cada una de las empresas, y plataformas que permiten el incremento en ventas y en satisfacción al cliente.
En la exposición de Leonardo Higuera, gerente de marketing de soluciones corporativas para Dell Latinoamerica, se buscó mostrar los generadores de contenido y cómo desarrollar aplicaciones para cada una de las necesidades de un cliente, y de este modo ganar u obtener algo nuevo cada año, ya que en el caso de Dell, es un proveedor de infraestructuras.
Gualberto Huerta, industry standard servers specialist multi country aerea de HP & AMD mostró que las herramientas sociales se basan en la consolidación, la virtualización y la integración de clientes de modo que puedan ser útiles para mantener el equilibrio de la misma y poder facilitar al acceso de cualquier dispositivo al mundo globalizado.
Y finalmente, Juan Cerda Amor, seguridad IBM en Infraestructura virtual, habló sobre la tecnología en gestión de negocios, y el deseo de mantener un mercado de virtualización buscando su crecimiento sostenido, así como cuidarse de los virus para garantizar su respaldo como empresa líder, de modo que se pueda determinar el rendimiento de la red si es que se está inscrito en un programa.