La computación en la nube se está convirtiendo en el estilo de diseño dominante para nuevas aplicaciones y para la adecuación de una gran cantidad de aplicaciones ya existentes, facilitando y flexibilizando los despliegues tanto de infraestructuras, como de herramientas y componentes para el desarrollo ágil de aplicaciones y servicios
Una nube híbrida es un entorno TIC donde se combinan una o varias nubes públicas y privadas, con uno o varios entornos TIC locales u "OnPremise", de forma que se permita que se compartan datos, aplicaciones y servicios de forma transparente y segura entre todos estos entornos
Según la octava acepción del Diccionario de la Lengua Española de la RAE, la nube es un “Espacio de almacenamiento y procesamiento de datos y archivos ubicado en internet, al que puede acceder el usuario desde cualquier dispositivo”. Probablemente esta definición no sea a día de hoy muy precisa en cuanto a que generaliza la ubicación en Internet de ese “espacio de almacenamiento y procesamiento”. De hecho, Gartner, que también define la computación en la nube como “un estilo de computación en el que capacidades TI escalables y elásticas son entregadas en forma de servicio utilizando tecnologías Internet”, ha ampliado y precisado su glosario de términos, reasignando esta misma acepción a “Computación en la nube pública”. Además, ha añadido nuevos términos de “Computación en nube privada” (de la que dice que “es una forma de computación en la nube utilizada por una sola organización o que asegura que una organización está completamente aislada de otras”) y “Computación en nube híbrida”, que describe como “Aprovisionamiento de servicios coordinado y basado en políticas, uso y gestión a través de una mezcla de servicios en la nube internos y externos.”
El origen de la computación en la nube tiene su germen en la virtualización, una capa de abstracción que añadida sobre los activos y recursos físicos de Tecnologías de la información (IT) que permite enmascarar su naturaleza física a los usuarios. En los sistemas de virtualización tradicional a través de esta capa de abstracción se conseguía “particionar” los sistemas originales en sub-sistemas equivalentes, o bien crear varias “instancias lógicas” de los mismos. Las primeras patentes de virtualización de arquitecturas x86 (las más extendidas en la actualidad) fueron registradas por VMWare a finales de los años 90 y comenzaron su auge en el año 2000.
Estas primeras tecnologías de virtualización fueron evolucionando hacia arquitecturas empresariales que permitieron ir desligando “activos lógicos” de sus “contenedores físicos”. Paulatinamente, se comenzaron a “virtualizar” los componentes menos críticos de las infraestructuras IT y de los sistemas de información corporativos, para gradualmente virtualizar el resto de activos y sistemas de información. Esta virtualización no solamente eliminaba las dependencias del software del hardware, sino que facilitaba, flexibilizaba y agilizaba todas las operaciones relacionadas con las infraestructuras. Así, permitía un mejor aprovechamiento de los recursos físicos al “multiplexar” varios sistemas virtuales sobre los recursos físicos disponibles, y mejoraba la disponibilidad y seguridad al permitir reubicar las instancias virtuales de forma automática en caso de fallo en otros recursos físicos.
La primera plataforma pública de computación en nube surgió sobre el año 2006, cuando Amazon comenzó a trabajar en una plataforma de comercio electrónico con el objetivo de utilizarla como plataforma de colaboración con otras empresas de su sector. Unos años más tarde, en 2010, Microsoft, desarrollaría y comercializaría su propio producto, Azure. También, ese mismo año, gracias a una colaboración entre la NASA y RackSpace, se lanzó también una iniciativa Open Source conocida como OpenStack, que a día de hoy está considerada como un estándar de facto sobre el que se basan muchas de las tecnologías de computación en nube actuales.
La virtualización y la aparición de estas tecnologías dio paso a que proveedores tradicionales de servicios de Internet adoptasen el uso de software de computación en nube para aumentar su catálogo de servicios y convertirse en proveedores de aplicaciones. Esto desembocó en un aumento exponencial de la demanda de cargas de trabajo al ser capaces de industrializar, agilizar y facilitar la provisión masiva de servicios IT a sus clientes a través de internet.
De esta forma, los sistemas de información comenzaron a transformarse para adaptarse a este nuevo tipo de arquitecturas y empezaron a escalar horizontalmente de forma masiva, repartiéndose y clonándose los componentes de los sistemas de información entre múltiples activos virtuales. Al estar estos activos virtuales repartidos y segregados entre múltiples activos físicos, perdía importancia la fiabilidad y disponibilidad de las infraestructuras físicas debido a este proceso de deslocalización. La paulatina incorporación de herramientas de gestión adecuadas para administrar y operar este tipo de tecnología, evolucionaron hacia la “orquestación”, tecnología que facilita, automatiza y monitoriza el despliegue y explotación de recursos y activos en forma de servicios (y autoservicios) TI.
Hay tres tipos principales de servicios de informática en la nube:
Inicialmente todos estos servicios de computación en la nube eran ofrecidos por sus fabricantes a través de internet (nube pública), si bien los proveedores empezaron a ofrecer su tecnología de nube de forma que pudiese ser instalada sobre infraestructura física privada para que los clientes pudiesen optar por desplegar su propia nube privada facturándolos bien en modalidad pago por uso, o bien mediante costes fijos en función de la capacidad asignada.
Una nube híbrida es un entorno TIC donde se combinan una o varias nubes públicas y privadas, con uno o varios entornos TIC locales u "OnPremise", de forma que se permita que se compartan datos, aplicaciones y servicios de forma transparente y segura entre todos estos entornos. Las organizaciones pueden mantener las aplicaciones y datos críticos para la compañía en infraestructuras locales protegidas a la vez que pueden obtener la flexibilidad y la capacidad que ofrecen las nubes públicas o privadas para el escalado de la capacidad TIC.
Estos entornos híbridos permiten también la deslocalización de aplicaciones o servicios específicos, de forma que si estos deben comunicarse con los sistemas corporativos pueda securizarse esta comunicación. A estos efectos es imprescindible implementar unos servicios híbridos de mensajería que permitan una integración segura y transparente entre todos los entornos, a la vez que se fomente el desacoplamiento entre diferentes servicios y aplicaciones.
En la actualidad, los servicios en la nube se han convertido en una parte integral de todas las estrategias de TI y la adopción de esta tecnología convive con los sistemas alojados de manera privada. Según Gartner, el mercado de nube publica IaaS creció un 31% en 2016 (22,1 billones de $ desde los 16,8 billones de $ en 2015).
Es previsible que para el año 2020 exista más capacidad de computación desplegada en la nube pública que en los Datacenters privados. También se espera que en 2021 el 70% de la nube publica este gestionada por los 10 principales proveedores.
Un beneficio clave de la infraestructura de nube pública como un servicio (IaaS) y la plataforma como servicio (PaaS) es acercar las aplicaciones a los clientes para permitir una mejor experiencia de usuario. También se está explotando la computación en la nube privada, especialmente en aquellos entornos donde la propiedad intelectual, el control, las preocupaciones regulatorias o de cumplimiento normativo, la seguridad, el rendimiento y el coste de la prestación del servicio son elementos clave.
En tales casos, las nubes privadas se ejecutan en las instalaciones propias o de un proveedor de hospedaje que ofrezca su infraestructura física en exclusiva, pudiendo ofrecer beneficios similares a la computación en la nube pública. La computación en nube híbrida implica una integración significativa entre los entornos interno y externo en las capas de datos, procesos, administración y seguridad. A día de hoy, los principales fabricantes de plataformas de virtualización tradicional también ofrecen una integración nativa con las nubes públicas más relevantes y gestión de las mismas desde sus propias herramientas de administración.
Según Gartner, estas son las principales recomendaciones a día de hoy, a la hora de diseñar una arquitectura IT empresarial:
Es importante adicionalmente gestionar a los proveedores de servicios en la nube de la misma forma que al resto de proveedores de servicios externos, acentuando el foco en los niveles de servicio y no solo en los precios.
La gestión de costes es además uno de los aspectos de la computación en nube que debe aún mejorarse, sobre todo en la modalidad de pago por uso, ya que, si bien es relativamente sencillo realizar un cálculo de costes por consumo en tiempo de procesamiento o en capacidad de almacenamiento, en muchos casos algunos costes relacionados con algunos consumos no son muy transparentes (tráfico de datos, demanda de E/S en almacenamiento…). Según datos de IDC, en más de la tercera parte de los casos, los costes operativos fueron superiores a los inicialmente previstos en los casos de negocio iniciales, por lo que la migración tecnológica a la nube debería ir siempre acompañada de un proceso de transformación de los procesos operativos que aporte un mayor control económico, especialmente en aquellos casos en los que se combinan la elasticidad de los recursos y el pago por uso de los mismos.
La computación en la nube se está convirtiendo en el estilo de diseño dominante para nuevas aplicaciones y para la adecuación de una gran cantidad de aplicaciones ya existentes, facilitando y flexibilizando los despliegues tanto de infraestructuras, como de herramientas y componentes para el desarrollo ágil de aplicaciones y servicios. Este paradigma está directamente relacionado con las metodologías ágiles de desarrollo, la construcción de microservicios, y es una de las palancas más determinantes en la transformación digital. Se estima que, en un par de años, cualquier estrategia TI relacionada con nuevas iniciativas que no esté basada en computación en la nube, requerirá justificación en más del 30% de las grandes empresas.
El desarrollo de arquitecturas híbridas que permitan la convivencia e integración de nuevos e innovadores servicios digitales que demande el negocio para su diferenciación (ubicados en nubes públicas o privadas en función de su criticidad, elasticidad y versatilidad), con las aplicaciones y sistemas tradicionales que dan soporte a los datos, aplicaciones y procesos ya existentes de la compañía, son la mayor garantía que cualquier departamento de TI puede actualmente ofrecer a su compañía como soporte a sus procesos de negocio y como palanca de generación de valor e innovación en su proceso de transformación digital.
Joaquín Gil de Vergara es Gerente del área de Technology Strategy and Architecture de DxD en Deloitte, y es especialista en infraestructura y cloud. Tiene más de 18 años de experiencia, los últimos 4 en la firma, en consultoría y proyectos relacionados con infraestructuras, comunicaciones y arquitectura TIC. Cuenta con certificaciones ITIL y PMP, y es especialista en la gestión de proyectos relacionados con la definición, implantación y transformación de infraestructuras TIC, y en el gobierno y gestión de contratos y servicios de soporte, administración y operaciones TIC. En los últimos años ha participado en proyectos en las industrias de las infraestructuras, del transporte, de las telecomunicaciones, de la energía y los recursos, y en los sectores público, asegurador y farmacéutico.