Cuando escuchamos este concepto por primera vez lo asociamos con algo que no existe en el mundo real, ¿quizás en lo imaginario? ¿o en lo intangible ?
La verdad es que a pesar de que el concepto nos lleve a pensar que es algo que no podemos ver o tocar, estamos en contacto con ello mas de lo que pensamos y su fundamento es la optimización en la utilización de recursos de hardware.
¿Pero cómo es todo esto posible?
El térrmino ‘virtualizacion‘ no es algo nuevo ya que desde la época de los años 60 IBM tomo este concepto en su idea de la existencia de una memoria virtual para ejecutar múltiples procesos.
Hasta ese momento los mainframe o súper computadores de la época se caracterizaban por ejecutar una tarea a la vez ocupando todos los recursos de maquina existentes.
Era necesario encontrar un método que permitiera ejecutar más de una acción sin necesidad de utilizar un recurso físico completo para cada una de las tareas.
Por esta razón se empezó a utilizar el concepto de virtualización pensando en optimizar los recursos existentes. Las super computadoras tenían un costo sumamente alto y solo las grandes corporaciones o los gobiernos podían tener este tipo de infraestructura.
Por otro lado, intercomunicar hardware de distintos fabricantes hacía mucho más complejo todo este proceso agregado al problema que solo se podía ejecutar una operación a la vez.
Todo esto ocasionó el cambio de enfoque para hallar una alternativa. Con el paso del tiempo se encontró una solución a nivel de software que no era tan costosa ya que lo mas importante en aquella época eran las piezas de hardware.
Tal vez hoy en dia para nosotros al utilizar nuestra computadora es muy normal trabajar en un documento en word, escuchar una canción en un reproductor de música, al mismo tiempo descargar contenidos de un repositorio y todo esto ejecuta múltiples procesos de manera simultánea, este mismo alcance se quería obtener en el pasado en la ejecución de procesos orientado a la entrega de un servicio.
IBM en el año de 1956 creo el primer sistema operativo lo cual permitía ejecutar procesos unitarios basados en un conjunto de instrucciones. Dicho sistema utilizaba los recursos como procesador, memoria, disco, etc., pero no existía la forma de realizar una tarea en paralelo o que los mismos recursos de hardware fueran utilizados por otro sistema operativo.
Pasaron más de 20 años y a mediados de los años 80 se creo una arquitectura denomina x86 que permitía llevar a la realidad el multi-proceso y llevaba a pensar que optimizar los recursos de hardware era posible.
Nuevamente tuvieron que pasar mas de 10 años y en 1998 el proyecto Vmware vio la luz debido al trabajo de un grupo de investigadores de la Universidad de California quienes lograron resolver uno de los principales problemas de la arquitectura x86 y poder mejorar la utilización del procesador.
En este momento nace un nuevo concepto el hypervisor, teniendo en cuenta que debía existir un sistema operativo que coordinara las operaciones ejecutadas por el hardware y sabiendo la limitación de uso de los recursos, se diseñó una capa superior que permitiera utilizarlos en una misma maquina.
Aquí donde nace el concepto de virtualizacion, se definió que este era la mejor forma para denominarlo debido a que dentro de un recurso físico era posible crear otros recursos señalados como máquinas virtuales.
Todo esto revolucionó la forma como se entregaban los servicios hasta ese momento y las soluciones basadas en software empezaron a ganar mucha más relevancia. Hoy en dia muchas organizaciones despliegan sus servicios haciendo uso de la virtualización.
Este movimiento ha implicado nuevos desafíos como las granjas con una gran cantidad de máquinas virtuales y distintos sistemas operativos ofrecidas por diversos fabricantes para mantener la estabilidad de todos los servicios.
Mantener el control y monitoreo de todas estas tareas no es nada sencillo, detectar problemas de asignación de tarjetas de red, almacenamiento y paridad de hardware comprende uno de los tantos desafíos que enfrentan las organizaciones.
Opmanager de ManageEngine es la alternativa ideal para resolver este tipo de problemas dando un enfoque proactivo y no reactivo dentro de la gestión de infraestructura, permite detectar alertas de consumos elevados y anticipar los fallos de manera eficiente.
Visita nuestro sitio web para conocer más información y alinea la TI con tu negocio de manera rápida y eficaz.