En las últimas décadas, noticias como problemas de sobrepoblación, escasez de recursos o desfases entre necesidad y disponibilidad, son un tema recurrente en muchos sectores y el ambiente tecnológico no podría ser la excepción.
Al comparar el momento en el cual fue desarrollada la primera computadora tipo Mainframe ENIAC en 1943, ocupando una habitación completa y con la capacidad de realizar unas pocas operaciones, versus las arquitecturas que se manejan en la actualidad, se puede observar que la tendencia es el aprovechamiento de los avances tecnológicos y tratar de realizar cada vez más tareas utilizando menos recursos.
En la década de los 80 aparecen las computadoras dedicadas y la arquitectura cliente servidor, dando nacimiento a los primeros servicios de tipo transaccional. El tamaño de las supercomputadoras se reduce drásticamente y el portafolio de funcionalidades aumenta, logrando con esto mayor accesibilidad a un mayor número usuarios.
En los años 90 el concepto de la “virtualización” empieza a tomar fuerza, aunque era un término que se manejaba desde los años 60, solamente en los 90 dicha idea empezó a mostrar resultados eficientes en comparación con las computadoras dedicadas y el concepto de optimización tomó un papel fundamental en la proyección de cara al futuro de la tecnología.
Una nueva era
A inicios del siglo XXI con la explosión de las punto com, los avances en redes informáticas y la aparición del concepto de hosting y posterior a ello servicios en la nube, aparecen nuevos desafíos que no podían ser cubiertos de forma eficiente por los esquemas de virtualización existentes.
Posteriormente aparece ‘abstracción‘, un nuevo término que se había logrado en cierta medida con la virtualización al lograr que en una única maquina pudieran coexistir mas de un sistema operativo, al que se le asignaban recursos como “procesador, memoria, disco e interfaces“ para poder ofrecer uno o más servicios.
La idea de llegar al siguiente nivel comenzó investigaciones en 2006 y logró su resultado en sus primeras etapas en 2013 cuando fue liberado y presentado un nuevo concepto que cambiaría la forma de ofrecer servicios ‘los contenedores’ el proyecto Docker vio la luz y el panorama informático cambió nuevamente.
A la par, distintos tipos de tecnologías empezaron a pasar del concepto a la realidad, con la consolidación de las arquitecturas de nube. los proveedores de servicios comenzaron a manejar un nuevo término: ‘serverless‘ en el cual se pueden desplegar servicios basados en funciones y consumir recursos de infraestructura (procesador, memoria, disco, red) durante el tiempo de ejecución y sin necesidad de depender de la instalación de un sistema operativo, lo cual permite reducir la dependencia y complejidad que tenían las primeras aplicaciones de tipo monolítico.
Las mejoras se presentan de forma mas recurrente y sin el riesgo de afectar otros módulos, ya que las funciones corren de forma independiente y se interconectan mediante llamados para ejecutar nuevas tareas sin alterar las anteriores, obteniendo eficiencia y reducción de errores en la liberación de software. Esto llevó a que marcos de trabajo como ‘DevOps‘ se consoliden como practicas estándar en la liberación eficiente de código.
La mezcla de estas diferentes tecnologías ha permitido que dos conceptos sean la columna vertebral de la oferta de servicios tecnológicos mostrados por las principales industrias en la actualidad, los microservicios y la infraestructura como código, los cuales empresas como Netflix, Facebook, plataformas de pago como Ebay o proveedores de nube como Amazon han mostrado aumento en su portafolio de servicios sin presentar mayores inconvenientes en la oferta de nuevos servicios.
De igual forma los avances en Inteligencia Artificial, Machine Learning y Big Data ayudan a las empresas a consumir servicios complejos que en arquitecturas tradicionales representarían un desafío en tiempo e inversión y esto significaría el fracaso de un sin numero de proyectos.
La ruta hacia la optimización
Esta nueva era de optimización se ha visto reflejada en que empresas dedicadas a la tecnología aumenten su nivel de ingresos de forma exponencial sobre otros sectores y hace que el acceso a tecnología eficiente sea accesible a cada vez mas personas sin importar su ubicación en el mundo, haciendo del proceso de globalización una realidad mas cercana a sectores de la sociedad con escasos recursos.
Esta nueva era ha permitido el nacimiento de nuevas start ups con grandes ideas pero escasos recursos financieros a poner en marcha sus proyectos en tiempos record y a usar de forma eficiente sus recursos financieros logrando de esta forma ofrecer un sinnúmero de productos y servicios en distintos nichos de mercado con mayor acceso a los distintos sectores de la sociedad en un ecosistema de tecnologías cada vez mas diversificado.
Ahora el reto está en controlar estos entornos híbridos de forma eficiente principalmente en temas como la disponibilidad y la capacidad, y que esto no represente un desafío a nivel técnico o económico.
ManageEngine en su portafolio de ITOM (IT Operations Management) cuenta con una oferta que busca apoyar a las empresas para que puedan responder a estos desafíos cambiantes sin morir en el intento.
Conozca nuestro portafolio completo y descubra cómo la gestión de TI puede ser una experiencia fácil, flexible y al alcance de su presupuesto.