Ir al contenido principal

Informe sobre Inteligencia Artificial. Observatorio de Regulación Digital y Tecnología

La Inteligencia Artificial se ha convertido en uno de los motores clave de la transformación tecnológica actual, con aplicaciones que abarcan desde la actividad empresarial hasta la salud, la educación o el ocio. Este informe, elaborado en el marco del Observatorio de Regulación Digital y Tecnología, analiza el impacto de la IA desde una perspectiva jurídica y ética, profundizando en los riesgos, la regulación y la necesidad de garantizar un uso responsable que respete los derechos fundamentales.

Partiendo de una descripción técnica y jurídica de lo que es la IA y su marco regulador europeo, abordamos cuestiones clave como su relación con los derechos fundamentales, la responsabilidad civil derivada de su uso, el impacto en el buen gobierno corporativo, la soberanía digital o la importancia de los datos como pilar esencial del desarrollo tecnológico. Este enfoque combina un análisis normativo, estratégico y ético, que permite comprender tanto los desafíos como las oportunidades que plantea esta tecnología.

Qué es la IA y qué son los Sistemas de IA

La IA se define como una aplicación informática capaz de realizar tareas que requieren inteligencia humana: analizar datos, tomar decisiones o elaborar planes. Su funcionamiento se basa en datos ya tratados y en instrucciones del usuario, siendo capaz de aprender y adaptarse.

Es importante la distinción de los sistemas de IA, entendidos como conjuntos complejos que combinan algoritmos, datos y estructuras de procesamiento. Estos pueden clasificarse en función de su nivel de autonomía, desde sistemas automatizados simples (inteligencia artificial débil, orientada a tareas concretas) hasta soluciones avanzadas con capacidad de autoaprendizaje (inteligencia artificial fuerte, con capacidad de generación). Los sistemas pueden operar con distintos niveles de autonomía, aprendizaje y adaptación. Entre sus principales técnicas se encuentran el aprendizaje automático, el aprendizaje profundo y el aprendizaje por refuerzo.

La aparición de técnicas como el aprendizaje automático o los modelos de lenguaje de gran escala (LLM) A pesar de que se ha ampliado el potencial de estos sistemas, aunque también ha generado nuevas preocupaciones regulatorias, especialmente en torno a su opacidad, capacidad de manipulación y dependencia de grandes volúmenes de datos.


La regulación comunitaria de la IA

La Unión Europea ha optado por establecer un marco regulatorio específico (hard law), mediante la aprobación del Reglamento Europeo de Inteligencia Artificial (RIA). Esta normativa adopta un enfoque basado en los riesgos que permite categorizar los sistemas según su nivel de peligrosidad y su impacto potencial sobre derechos y libertades.

El modelo europeo combina normas éticas, técnicas y jurídicas bajo tres pilares: un marco ético no vinculante, estándares técnicos armonizados y una regulación legal exigente. Este enfoque busca fomentar la innovación sin comprometer principios esenciales como la transparencia, la seguridad o la no discriminación. El objetivo es consolidar un mercado digital competitivo sin comprometer los derechos fundamentales, como la privacidad o la no discriminación.

Este modelo regulatorio responde a los retos de la IA con una visión sostenible y centrada en el ser humano, inspirándose en el Reglamento General de Protección de Datos (RGPD) como precedente normativo exitoso. Además, el Reglamento se articula mediante obligaciones proporcionales según el nivel de riesgo (desde la prohibición de usos de alto impacto hasta medidas voluntarias para los de bajo riesgo), promoviendo un desarrollo de la IA centrado en la dignidad humana y alineado con los valores del Estado de derecho.


IA y Derechos Fundamentales

El uso de sistemas de IA puede afectar de forma directa o indirecta al conjunto de los derechos fundamentales, desde la privacidad y la libertad de expresión hasta la igualdad o el derecho a no ser discriminado. Por ello, el marco europeo incluye una clasificación de los riesgos en cuatro niveles: inaceptable, alto, limitado y mínimo.

Las aplicaciones con riesgo inaceptable, como el reconocimiento biométrico masivo en espacios públicos o los sistemas de puntuación social, están expresamente prohibidas. Los sistemas de alto riesgo (por ejemplo, vinculadas al ámbito sanitario, educativo o la justicia) deben someterse a una evaluación de su impacto, supervisión humana o trazabilidad algorítmica, cumpliendo estrictos requisitos técnicos y legales. Para los demás niveles, se prevén medidas más flexibles.

Este enfoque busca garantizar que el desarrollo tecnológico no suponga una regresión en las garantías jurídicas y sociales, evitando aplicaciones que puedan vulnerar principios básicos como la autonomía personal, y preservando la confianza pública en la IA.


IA y responsabilidad civil

La creciente autonomía de la IA y su integración en actividades con implicaciones legales plantea nuevos desafíos en materia de responsabilidad. El marco europeo ha actualizado el régimen de responsabilidad por producto defectuoso para incluir los sistemas de IA, introduciendo plazos específicos y contemplando los daños derivados de errores algorítmicos.

El reto gira en torno a cómo garantizar la reparación del daño cuando los errores derivan de decisiones algorítmicas complejas. Se contempla ampliar la definición de “productor” a operadores tecnológicos, distribuidores y entidades que modifiquen modelos tras su lanzamiento, y se introducen mecanismos para facilitar la prueba en beneficio del perjudicado. El objetivo es reforzar la protección del consumidor y clarificar el papel de fabricantes, distribuidores e integradores de sistemas de IA en caso de fallos o daños. Además, se estudia el impacto de la autonomía de los sistemas de IA sobre la imputabilidad de acciones, abriendo el debate sobre la necesidad de nuevas figuras jurídicas.

Todo ello resalta la urgencia de un marco de responsabilidad que garantice la reparación del daño y ofrezca seguridad jurídica. La Propuesta de Directiva de 2022 del Parlamento Europeo buscó adaptar estas normas introduciendo mecanismos para facilitar las reclamaciones en casos de daño causado por IA, ante la dificultad de aplicar los criterios tradicionales de culpa o causalidad. Aunque finalmente se ha decidido su retirada, los planteamientos que recogía siguen sus planteamientos siguen orientando la evolución del marco normativo.


El impacto de la Inteligencia Artificial en el buen gobierno corporativo: una encrucijada entre derecho, tecnología digital y ética, con una visión estratégica y de controles adecuados

La irrupción de la IA exige una profunda revisión de las estructuras de gobierno corporativo. Esta tecnología transforma la toma de decisiones empresariales, desde el análisis financiero hasta la estrategia ESG, y plantea nuevas exigencias de supervisión, transparencia y rendición de cuentas para los órganos de administración.

La incorporación de esta tecnología obliga a revisar los sistemas de control interno, evaluar los riesgos tecnológicos y redefinir las prácticas de diligencia debida. Esto implica desarrollar competencias específicas dentro de los órganos de gobierno y establecer mecanismos de auditoría y supervisión, para mitigar los riesgos asociados al uso de la IA, como los errores algorítmicos, la opacidad o el sesgo. Los directivos deben integrar la IA como herramienta estratégica sin perder de vista la diligencia, la lealtad y la buena fe.

Tanto la legislación europea como los códigos de buen gobierno (como los publicados en España en 2020 o en Reino Unido en 2024) insisten en preservar el juicio humano como factor último en la toma de decisiones, incluso cuando estas se basen en modelos automatizados. El equilibrio entre eficiencia tecnológica y responsabilidad ética es una exigencia ineludible.


La necesidad de garantizar la identidad de los sujetos que operan en el entorno digital como un derecho fundamental: una identidad digital soberana

La identidad digital, más allá de un concepto técnico, se configura como un derecho fundamental en la era digital. La posibilidad de identificar con seguridad y certeza a los sujetos que operan en entornos digitales es clave para prevenir fraudes, proteger derechos y asegurar la trazabilidad de las interacciones automatizadas.

Con la expansión de la IA, y especialmente de las herramientas generativas, aumenta el riesgo de suplantación, manipulación de identidad y pérdida de control sobre la información personal. Por eso, el Reglamento eIDAS II promueve un marco europeo para la identidad digital soberana y segura.

Se plantea un modelo de “autorregulación regulada” que incluye el desarrollo de una “cartera europea de identidad digital” (EUDI Wallet) y la supervisión por parte de autoridades nacionales e instituciones independientes, especialmente en sectores estratégicos, como el sanitario, tributario o financiero. Se apuesta por una gobernanza compartida y por soluciones tecnológicas interoperables que respeten los derechos fundamentales.


IA en todas partes: magia, pero son algoritmos 

Aunque popularmente se asocia la IA a una especie de “magia tecnológica”, está dejando de percibirse como una tecnología futurista para integrarse silenciosamente en todos los aspectos de la vida cotidiana. Cada vez es más próximo un futuro en el que la IA personalice la atención médica, optimice la movilidad urbana, adapte los procesos educativos y transforme la experiencia del cliente. No se trata de “usar” la IA como herramienta aislada, sino de vivir en un entorno estructuralmente impregnado de IA en múltiples capas.

Sin embargo, esta integración no es neutra. Los avances que permiten una IA más especializada y adaptada a necesidades concretas exigen una profunda reflexión y nuevas estrategias de gobernanza de los sistemas. A medida que se desarrollan nuevos tipos de modelos (multimodales, pequeños, embebidos en hardware), la necesidad de una regulación ética, transparente y funcional es cada vez más urgente. La clave está en entender que no estamos ante magia, sino ante algoritmos complejos cuyo diseño, entrenamiento y uso debe someterse a principios de responsabilidad, transparencia y explicabilidad.


¿Qué sigue para la IA?

Las organizaciones líderes están transitando de un enfoque basado en grandes modelos de lenguaje (LLM) hacia arquitecturas más ligeras, especializadas y eficientes. La tendencia apunta hacia arquitecturas especializadas, ligeras y colaborativas (multiagentic), capaces de resolver tareas concretas de forma eficiente y ética, y con menor coste.

Este enfoque abre nuevas posibilidades para personalizar la IA a distintos sectores: finanzas, educación, salud, etc. En lugar de tener un modelo único para todo, se diseñan agentes de IA especializados, optimizados para objetivos concretos, como responder a clientes o analizar patrones de gasto. Esto requerirá nuevas estrategias de adopción, un marco normativo claro y capacidades organizativas para integrar la IA de forma transversal.

Además, el auge de opciones de código abierto y la introducción a la multimodalidad están planteando nuevos retos y oportunidades: garantizar la interoperabilidad, proteger los derechos de propiedad intelectual y evitar la fragmentación tecnológica. La tendencia es clara: pasar del “más grande y potente” al “más útil, específico y escalable”.
 

Los datos y la IA, una relación intrínseca

La calidad de los datos es crítica para el éxito de la IA. Las organizaciones están invirtiendo masivamente en mejorar sus sistemas de gestión de datos, conscientes de que un buen entrenamiento depende de datos fiables, seguros y éticos. Si los datos son erróneos, los modelos reproducen e incluso amplifican esos errores.

Por ello, la inversión en gobernanza de datos, políticas de calidad, seguridad, trazabilidad y protección de la privacidad se está convirtiendo en un activo estratégico para las organizaciones. Sin embargo, persisten retos como el uso de datos de terceros, la privacidad, y la sostenibilidad de las fuentes. Frente a esto, algunas empresas están optando por entrenar modelos específicos de dominio, mientras otras apuestan por modelos pre entrenados.

La mayoría de las organizaciones optarán por una estrategia combinada que equilibre personalización, la protección de datos, el coste y el cumplimiento legal.


Conclusión

La IA tiene un potencial transformador, pero su impacto dependerá, en gran medida, del tipo de liderazgo y los valores que ejerzan las organizaciones. Aplicarla para hacer lo mismo de siempre más rápido puede suponer una oportunidad perdida o incluso amplificar los sesgos existentes. El reto está en repensar lo que hacemos y cómo lo hacemos, incorporando esta tecnología con visión crítica y humanista.

Será clave adoptar nuevas prácticas organizativas, replantear el modo en que usamos los datos y construir sistemas que respondan a valores éticos y sociales. En este camino, los datos seguirán siendo el factor más determinante: organizar, proteger y racionalizar su uso será una prioridad.

Además, la preparación frente a desafíos regulatorios y éticos no es opcional. El verdadero reto está en guiar su desarrollo hacia un futuro más justo, transparente y compartido. No se trata solo de lo que la IA puede hacer, sino de lo que estamos dispuestos a hacer con ella.

Did you find this useful?

Thanks for your feedback