Ir al contenido principal

La IA sin control no sirve de nada

El avance de la Inteligencia Artificial (IA) en el ámbito del desarrollo de software es innegable y, en muchos sentidos, revolucionario. Las herramientas de codificación asistida han pasado de ser una novedad a una realidad omnipresente, prometiendo un aumento exponencial en la productividad. Sin embargo, en medio de este auge tecnológico, surge una advertencia clave que da título a este análisis: la IA sin control no sirve de nada. La promesa de la velocidad no se cumple por sí sola, requiere una estructura organizacional capaz de convertir su potencial en resultados.

Esta es la conclusión central más relevante y reciente del informe sobre el tema: el "2025 State of AI-Assisted Software Development", del DORA Institute (DevOps Research and Assessment). Basado en décadas de investigación sobre alto rendimiento tecnológico, el estudio revela una realidad clave: la IA no resuelve automáticamente los problemas internos de un equipo, sino que potencia lo que ya existe y amplifica tanto fortalezas como debilidades según la organización y sus procesos.

 

La IA como espejo y multiplicador

El informe de DORA, basado en el feedback de miles de profesionales de la tecnología, confirma una adopción casi universal: se estima que cerca del 90% de los desarrolladores ya utiliza la IA en su trabajo diario, y una mayoría significativa reporta mejoras en la productividad. No obstante, el estudio identifica un fenómeno de "espejo y multiplicador":

  1. En equipos de alto rendimiento: cuando los equipos tienen procesos bien organizados, sistemas que se entienden fácilmente entre sí y ciclos de feedback rápidos, la IA funciona como un acelerador: agiliza las tareas, reduce la carga operativa y permite que los ingenieros se enfoquen en actividades de mayor valor estratégico y creativo. El resultado es un aumento notable de la productividad y una calidad que se mantiene o, incluso, mejora.
  2. En equipos con debilidades organizacionales: procesos demasiado manuales, pocas pruebas, sistemas difíciles de modificar y una cultura de baja confianza generan un entorno en el que la IA no soluciona los problemas, sino que los amplifica. La generación rápida de código sin una buena revisión aumenta la inestabilidad, provoca más fallos en producción y reduce la velocidad real, porque se necesita más tiempo para resolver incidentes.

Esta perspectiva está anclada en la filosofía DevOps, que busca optimizar la entrega de valor de principio a fin. No es casualidad que las ideas de figuras clave en esta transformación resuenen en este informe. Uno de los grandes impulsores de la investigación DORA, y coautor de textos fundamentales sobre DevOps como The Phoenix Project, The DevOps Handbook y Wiring the Winning Organization, es Gene Kim. La participación de Kim subraya que el éxito de la IA no es una cuestión de machine learning, sino de ingeniería de sistemas y cultura organizacional.

Gene Kim explica que un uso acelerado de la IA sin control no respeta los "tres caminos" de DevOps: si el flujo se agiliza sin reforzar el feedback (pruebas automatizadas, monitoreo) y el aprendizaje continuo (revisión de fallos), el sistema inevitablemente se sobrecarga y colapsa.

En 2025, el aumento del volumen de cambios (una de las métricas clave de desempeño) puede convertirse en un riesgo si los controles de calidad no están bien implementados. La confianza en la IA se vuelve paradójica: los desarrolladores la usan por eficiencia, pero la necesidad de revisar manualmente los resultados reduce buena parte de la productividad ganada.

Para que esta tecnología sea realmente transformadora, el foco de la inversión debe pasar de la simple adquisición de herramientas a la construcción de capacidades organizacionales y técnicas de control. El informe presenta un modelo de capacidades de IA que incluye prácticas técnicas y culturales específicas para asegurar que la tecnología potencie lo positivo:

  • Plataforma interna sólida: equipos con plataformas bien desarrolladas (infraestructura como código, CI/CD automatizado, portales internos para desarrolladores) pueden manejar el aumento de código generado por la IA sin que se genere inestabilidad.
  • Confianza y políticas claras: es crucial establecer políticas que definan qué código generado por IA es aceptable, cómo debe ser probado y qué grado de auditoría requiere.
  • Fortalecimiento del control de versiones y pruebas automatizadas: estos actúan como “cinturones de seguridad”, que evitan que la mayor velocidad se traduzca en desorden o errores.

Para entender dónde hay debilidades que la IA podría amplificar, el informe DORA subraya la importancia de herramientas de análisis como el Value Stream Mapping (VSM), que permite a las organizaciones visualizar el flujo de trabajo completo, desde la idea inicial hasta su entrega en producción.

Si un equipo no tiene visibilidad clara de dónde se acumula el 'tiempo de espera' o los 'cuellos de botella' (pruebas manuales lentas, aprobaciones burocráticas) incorporar la IA solo aumentará el trabajo en curso y la presión, sin reducir el tiempo total del ciclo. En pocas palabras, el VSM es la herramienta de diagnóstico que debe aplicarse antes de implementar la inteligencia artificial.

Las métricas DORA como espejo del impacto de la IA

Las cuatro métricas clave de DORA son la forma alternativa para entender si la IA está sumando valor o simplemente sumando ruido. El aumento de la frecuencia de despliegue y la reducción del tiempo de entrega de cambios (lead time) son los beneficios directos y medibles que la IA debería impulsar, ya que automatiza tareas y acelera la producción de código. No obstante, el verdadero indicador del control y la disciplina reside en las métricas de estabilidad:

  • Tasa de Fallo de Cambios (Change Failure Rate): si la adopción de la inteligencia artificial no está respaldada por revisiones humanas y pipelines de calidad sólidos, esta métrica se disparará. Un código más rápido, pero más defectuoso demuestra que la tecnología no está aportando valor.
  • Tiempo de Restauración del Servicio (Time to Restore Service - MTTR): si los fallos causados por código asistido toman demasiado tiempo en corregirse, indica una falta de comprensión o confianza en el código generado por IA, anulando cualquier ganancia de velocidad inicial.

En resumen, las métricas obligan a los equipos a medir el rendimiento de la inteligencia artificial no solo en velocidad, sino también en calidad y fiabilidad, lo que refuerza la necesidad de control.

 

El desafío de la inestabilidad: velocidad sin red de seguridad

El dilema central que plantea el informe es el de la "velocidad sin seguridad". La IA generativa permite a un desarrollador, incluso con conocimientos limitados, producir grandes bloques de código funcional a una velocidad inédita. Pero ¿quién garantiza la calidad, la seguridad y la idoneidad de ese código?


IDP: el cimiento sólido para una inteligencia artificial segura

Para que la IA opere de forma sólida, necesita un entorno estandarizado y bien documentado, precisamente lo que ofrece un Internal Developer Portal (IDP). Este portal proporciona a los desarrolladores acceso self-service a todas las herramientas, templates de código, servicios en la nube y documentación interna de la organización.

El IDP es crucial en la era de la IA por dos razones:

  1. Seguridad y consistencia (control de la infraestructura): el portal garantiza que, cuando la inteligencia artificial genera un nuevo microservicio o una nueva función, lo haga utilizando templates y componentes que ya cumplen con las políticas de seguridad y compliance de la empresa. Así, esta tecnología trabaja sobre una base segura y se reduce el riesgo de introducir vulnerabilidades que después habría que corregir manualmente.
  2. Aterrizaje y contexto (control de la información): Las herramientas de IA generativas necesitan contexto para evitar respuestas incorrectas. Un IDP centraliza la documentación interna, los patrones de diseño aprobados y las mejores prácticas. Al conectar los modelos con esta fuente de conocimiento veraz y curada, se mejora drásticamente la relevancia y la seguridad del código generado, convirtiendo la tecnología en un verdadero experto en el contexto de la organización.

En definitiva, la IA en el desarrollo de software representa un cambio de paradigma. Promete redefinir la productividad de formas que antes solo imaginábamos, pero ese potencial exige disciplina. El informe DORA 2025 y referentes como Gene Kim recuerdan que la tecnología es un medio, no un fin.

Para aprovechar realmente los beneficios, las organizaciones deben dejar de buscar soluciones rápidas y, en cambio, centrarse en construir los sistemas, las culturas y los controles que transformarán la aceleración en alto rendimiento sostenible. Sin esas redes de seguridad, la IA se convierte meramente en una máquina de amplificar nuestros errores.

Este articulo ha sido generado mediante una herramienta de IA con los siguientes prompts:

Prompt 1:
Realiza un artículo de 2 páginas word de extensión.

El título es "La IA sin control no sirve de nada".

El tema del artículo es comentar el estado de la ayuda de la IA en el desarrollo del software.

Haz referencia al último informe de DORA Institute "2025_state_of_ai_assisted_software_development".

Haz hincapié en que uno de los autores es Gene Kim autor de varios libros de devops.

Prompt 2:
Añade un párrafo indicando el VSM.

Prompt 3:
Añade un apartado que hable de que las métricas DORA pueden ayudar a entender el impacto de la IA sobre el sistema.

Añade también otro apartado explicando que los IDP (Internal Developer Portal) pueden ayudar en conseguir una base donde la IA pueda ejercerse de forma más sólida y segura, explicando el porqué.

 

Y ha sido revisado por Marçal Nebot y David Lecina, senior specialist y specialist lead de Engineering de Deloitte.