Accéder au contenu principal
Point de vue:

EU AI Act : comprendre le premier cadre réglementaire sur l’intelligence artificielle.

Détails et Contexte des exigences de mise en œuvre

L’Union européenne a adopté le 1er août 2024 l’AI Act, également appelé « Réglementation européenne sur l’intelligence artificielle ». Il s’agit du premier cadre législatif au monde spécifiquement conçu pour encadrer l’usage des systèmes d’IA. 

Télécharger notre étude

 

L’objectif principal de l’EU AI Act est de renforcer le bon fonctionnement du marché unique européen tout en favorisant l’émergence d’une intelligence artificielle éthique et centrée sur l’humain. Le texte vise à garantir un niveau élevé de protection en matière de santé, de sécurité et de respect des droits fondamentaux – tels que définis dans la Charte des droits fondamentaux de l’Union européenne – y compris la démocratie, l’État de droit et la préservation de l’environnement. 

L’AI Act se positionne avant tout comme une « réglementation produit » : il encadre les systèmes d’IA proposés sur le marché européen, qu’ils soient développés dans l’Union ou importés. En imposant des exigences spécifiques en fonction des risques identifiés, il ambitionne de protéger les citoyens contre les effets potentiellement préjudiciables de l’intelligence artificielle, sans freiner pour autant l’innovation. 

Les fournisseurs de systèmes d’IA classés comme présentant un risque élevé seront désormais soumis à un ensemble d’exigences strictes, inspirées des principes d’une IA digne de confiance : gouvernance, qualité des données, transparence, robustesse, supervision humaine, etc. Le non-respect de ces obligations pourra entraîner des sanctions importantes, allant jusqu’au retrait du système du marché européen. 

L’AI Act ne se limite pas à un cadre de contrôle : il définit également des principes, des règles et des procédures étendus, tout en introduisant de nouvelles structures de supervision au niveau national et européen. Pour autant, cette réglementation n’a pas pour objectif de freiner l’innovation. Elle a été pensée pour encourager un développement responsable et sécurisé de l’IA en Europe, notamment en soutenant les start-up et les PME1, grâce à un cadre clair, une sécurité juridique renforcée et des dispositifs d’expérimentation comme les bacs à sable réglementaires. 

Définition d’un système d’IA selon l’AI Act 

La définition retenue par l’AI Act s’appuie sur celle proposée par l’OCDE, aujourd’hui largement reconnue au niveau international. 

Un système d’intelligence artificielle y est défini comme : 

 Un système basé sur une machine, conçu pour fonctionner avec des niveaux d’autonomie variables et capable, une fois déployé, de faire preuve d’adaptabilité. Ce système poursuit des objectifs explicites ou implicites et, en fonction des données qu’il reçoit, peut générer des résultats – tels que des prédictions, du contenu, des recommandations ou des décisions – susceptibles d’influencer des environnements physiques ou virtuels. 

Cette définition met l’accent sur trois caractéristiques fondamentales : 

L’autonomie du système,

Sa capacité d’adaptation, 

Son aptitude à produire des résultats qui ont un impact concret sur le monde réel ou numérique.

Un système d’IA, au sens de la réglementation européenne, se caractérise par sa capacité à générer des résultats (outputs) à partir de données, que ce soit sous la forme de prédictions, de recommandations, de décisions ou de contenus. Cette capacité, décrite dans le texte comme l’« aptitude à tirer des conclusions » (« ability to draw conclusions »), désigne la faculté du système à transformer les données en actions ou informations ayant un impact sur les environnements réels ou virtuels. 

Ces fonctionnalités reposent sur des techniques telles que l’apprentissage automatique (machine learning) ou des approches basées sur des règles logiques ou symboliques. 

Les systèmes d’IA peuvent présenter des niveaux d’autonomie variables : ils peuvent fonctionner de manière indépendante ou être intégrés dans des produits, tout en s’adaptant de façon autonome à leur usage et à leur environnement. 

La définition retenue par l’AI Act est volontairement large, ce qui implique qu’un grand nombre de systèmes ou de produits numériques pourraient, en théorie, relever de la réglementation. Toutefois, les lignes directrices publiées par la Commission européenne en février 2025 sont venues clarifier et restreindre ce périmètre : certains systèmes ne relèvent pas de la définition, notamment ceux qui se limitent à de l’optimisation mathématique, au traitement simple de données, à des heuristiques classiques2, ou à des prévisions simples fondées sur des règles statistiques déterministes. 

Ces clarifications visent à mieux circonscrire le champ d’application matériel de l’AI Act et à éviter des interprétations trop extensives, tout en conservant une couverture adaptée aux évolutions technologiques des systèmes d’IA. 

 

Les éléments clés définissant un système d’IA 

Les lignes directrices de la Commission européenne identifient sept éléments clés qui, ensemble, permettent de caractériser un système comme relevant de la définition de l’intelligence artificielle au sens de l’AI Act. 

Cette définition repose sur une approche fondée sur le cycle de vie du système, couvrant à la fois les phases pré-déploiement (conception, développement) et post-déploiement (utilisation effective). Tous les éléments n’ont pas besoin d’être présents à chaque étape, mais chacun doit être observé au moins une fois sur l’ensemble du cycle de vie pour que le système entre dans le champ d’application de la réglementation. 

Les sept éléments structurants sont les suivants : 

Ces critères permettent d’englober la diversité des architectures et des usages, tout en maintenant une ligne directrice claire. Toutefois, chaque système doit être évalué au cas par cas, en tenant compte de ses caractéristiques propres, pour déterminer s’il constitue ou non un système d’IA selon la définition réglementaire. 

Qui est concerné par la réglementation européenne sur l’IA ? 

L’AI Act s’applique exclusivement aux systèmes et aux cas d’usage relevant du droit de l’Union européenne. Il encadre la mise sur le marché, la mise en service et l’utilisation des systèmes d’intelligence artificielle au sein de l’UE, qu’ils soient développés localement ou importés depuis des pays tiers. 

Certains usages sont explicitement exclus du champ d’application de la réglementation : 

  • les systèmes d’IA développés à des fins militaires ou de défense, 
  • ceux utilisés strictement à des fins de recherche ou d’innovation, 
  • les modèles open-source (dans certaines conditions), et 
  • les utilisations non commerciales par des individus. 

La réglementation s’applique à tous les acteurs intervenant dans le cycle de vie d’un système d’IA, dès lors que celui-ci est destiné au marché européen : 

  • les fournisseurs, c’est-à-dire les entités qui développent un système d’IA et le mettent sur le marché sous leur propre nom ou marque, 
  • les importateurs et distributeurs, et 
  • les déployeurs (ou utilisateurs professionnels), qui intègrent ou exploitent un système d’IA dans le cadre de leurs activités. 

Tous ces acteurs doivent s’assurer que les systèmes d’IA qu’ils mettent en œuvre respectent les exigences de la règlementation, en fonction du niveau de risque identifié. 

Modèles d’IA à usage général (GPAI) 

En complément des modèles d’IA « conventionnels », ciblés sur des tâches spécifiques, l’AI Act introduit une catégorie spécifique : les modèles d’intelligence artificielle à usage général (General Purpose AI, ou GPAI). Ces modèles, souvent à la base des systèmes d’IA générative, se caractérisent par leur flexibilité d’usage et leur capacité à être déployés dans des contextes très varié et utilisés au-delà des cas d’usage prévus initialement. 

Contrairement aux systèmes d’IA classiques, qui sont évalués en fonction de leur cas d’usage, les GPAI sont classés selon la performance et la portée du modèle de base sous-jacent. Deux niveaux d’obligations sont prévus :  

Ces modèles doivent respecter des obligations accrues de transparence vis-à-vis du Bureau de l’IA de l’UE (EU AI Office) et des autorités nationales compétentes. Cela inclut notamment : 

  • Une documentation technique détaillée, 
  • Une liste des données d’entraînement (y compris celles protégées par des droits d’auteur), 
  • Des exigences relatives à l’étiquetage du contenu généré par l’IA.   

Pour les modèles très puissants, susceptibles de générer des risques systémiques à l’échelle sociétale ou économique, des exigences supplémentaires s’appliquent : 

  • Notification et gestion des incidents graves, 
  • Évaluation des modèles,
  • Tests d’attaque (« adversarial testing »).  

La distinction entre ces deux niveaux repose sur un seuil objectif lié à la puissance de calcul nécessaire à l’entraînement du modèle, mesurée en FLOPs (« Floating point operations per second »). Un modèle qui dépasse ce seuil de 10^25 FLOPs est considéré comme potentiellement à risque systémique. 

Pour accompagner cette règlementation, des codes de conduite sectoriels sont en cours d’élaboration avec l’appui d’experts de l’industrie, du monde académique et de la société civile. Un Code of Practice dédié aux GPAI est d’ailleurs attendu d’ici août 2025, à la suite du lancement d’une consultation publique par la Commission européenne. Ce code précédera l’adoption de normes techniques harmonisées au niveau européen, élaborées en collaboration avec la Commission. 

Une approche fondée sur le risque 

L’AI Act adopte une approche proportionnée et fondée sur le risque : tous les systèmes d’intelligence artificielle ne sont pas régulés de la même manière. Le niveau d’exigence dépend du potentiel d’impact du système sur la santé, la sécurité ou les droits fondamentaux des personnes. 

Deux grandes familles de systèmes sont distinguées : 

  • Les systèmes d’IA à objectif spécifique, pour lesquels le risque est évalué en fonction de leur cas d’usage concret (par exemple : recrutement, crédit, éducation, justice, etc.). 
  • Les modèles d’IA à usage général (GPAI), traités à part en raison de leur capacité à être réutilisés dans une grande diversité de contextes, souvent imprévisibles. 

Pour les systèmes à objectif spécifique, le niveau de risque détermine les obligations spécifiques applicables. Quatre catégories ont été établies : 

  • Risque inacceptable : pratiques interdites (ex. : notation sociale, manipulation comportementale, reconnaissance émotionnelle dans les écoles ou sur le lieu de travail). 
  • Risque élevé : soumis à des exigences strictes de conformité (voir section dédiée). 
  • Risque limité : obligations de transparence (ex. : indication explicite qu’un utilisateur interagit avec un système d’IA). 
  • Risque minimal : pas d’obligations spécifiques, mais possibilité d’adhésion volontaire à des codes de conduite. 

Cette classification permet de cibler la régulation là où elle est la plus nécessaire, sans entraver l’innovation dans les usages à faible impact. 

 

Systèmes d’IA Interdits : les pratiques à risque inacceptable 

Depuis le 2 février 2025, certains systèmes d’intelligence artificielle présentant un risque jugé inacceptable sont formellement interdits par l’AI Act. Ces interdictions visent à protéger les droits fondamentaux, la dignité humaine et le libre arbitre des individus. 

Parmi les pratiques prohibées figurent notamment : 

  • La catégorisation biométrique en vue d’inférer des données sensibles (opinions politiques, convictions religieuses ou philosophiques, orientation sexuelle, origine ethnique) ; 
  • La capture indirecte d’images faciales à partir d’Internet ou de dispositifs de surveillance en vue de constituer des bases de données pour la reconnaissance faciale ; 
  • La reconnaissance des émotions sur le lieu de travail ou dans les établissements scolaires ; 
  • Les systèmes de notation sociale, évaluant les individus sur la base de leur comportement ou de traits personnels ; 
  • Les techniques de manipulation comportementale inconsciente, portant atteinte au libre arbitre ; 
  • L’exploitation des vulnérabilités de certains groupes (enfants, personnes en situation de handicap ou en précarité socio-économique). 

 

Focus : les systèmes d’identification biométrique à distance en temps réel 

Ces systèmes ne sont pas interdits, mais classés à haut risque. Leur utilisation reste strictement encadrée, notamment pour : 

  • La recherche de victimes (enlèvement, traite des êtres humains), 
  • La prévention de menaces terroristes graves et imminentes, 
  • L’identification de suspects dans le cadre de crimes majeurs,  
  • Et uniquement dans des conditions spatio-temporelles spécifiques, définies par la loi. 

La Commission européenne a publié en février 2025 des lignes directrices pour clarifier ces interdictions. Elles incluent de nombreux exemples concrets et insistent sur la distinction, parfois subtile, entre un usage interdit et un usage à haut risque. Une évaluation rigoureuse et contextualisée de chaque cas est donc essentielle pour éviter toute non-conformité. 

Systèmes d’IA à haut risque (HRAI) : l’axe central de la réglementation 

Le cœur du dispositif réglementaire de l’AI Act repose sur les systèmes d’IA à haut risque (High-Risk AI Systems – HRAI), qui sont soumis à un ensemble structuré d’obligations de conformité. Les fournisseurs concernés doivent notamment : 

  • Mettre en place un système de gestion de la qualité et des risques, 
  • Garantir la qualité et l’intégrité des données utilisées, 
  • Réaliser une évaluation de conformité avant toute mise sur le marché ou mise en service, 
  • Et établir une déclaration de conformité du système. 

La Commission européenne publiera d’ici au 1er février 2026 des lignes directrices pratiques et des exemples concrets pour aider à l’identification des systèmes relevant du haut risque. L’application générale de l’AI Act pour ces systèmes débutera le 2 août 2026. 

 

Deux grandes catégories de systèmes HRAI 

Les systèmes à haut risque se répartissent en deux catégories : 

1. Les systèmes d’IA intégrés à des produits couverts par une législation sectorielle existante en matière de sécurité, tels que : 

  • La réglementation sur les dispositifs médicaux, 
  • La directive machines, ou
  • La directive sur la sécurité des jouets. 

Ces systèmes devront faire l’objet d’une évaluation de conformité par un organisme tiers notifié. 

2. Les systèmes relevant des domaines listés dans l’Annexe III de l’AI Act qui couvre des cas d’usage critiques dans des secteurs variés, parmi lesquels : 

  • Les infrastructures critiques, 
  • L'éducation et la formation professionnelle, 
  • L'accès à l’emploi, au logement, au crédit bancaire, à l’assurance, 
  • Et l’accès à des services publics essentiels (santé, appels d’urgence, justice, sécurité sociale, etc.). 

Pour ces systèmes, les fournisseurs procèdent eux-mêmes à l’évaluation de conformité, sauf exceptions réglementaires. Ce périmètre ne se limite pas aux secteurs publics, bancaires ou assurantiels : toute entité exploitant un cas d’usage listé dans l’annexe III est concernée. 

Cas spécifique : identification biométrique à distance (RBI)

Les systèmes d’identification biométrique à distance (RBI), en particulier ceux utilisés en temps réel dans des espaces publics, sont également classés à haut risque, avec des règles spécifiques applicables à partir du 2 août 2026. Ces systèmes ne peuvent être utilisés que dans des cas strictement encadrés : 

  • Prévention d’un danger concret et imminent (ex. : attentat), 
  • Recherche ciblée (victimes, personnes disparues), 
  • Lutte contre certains crimes graves. 

 

Évolution du statut d’un système : attention aux usages évolutifs ou détournés 

Un système d’IA non classé initialement comme « haut risque » peut devenir un système HRAI dans les cas suivants : 

  • Modification substantielle de ses fonctionnalités ou de son fonctionnement initial.  Dans ce cas, l’entité qui adapte ou redéploie le système devient elle-même « fournisseur » au sens de l’AI Act, avec l’ensemble des obligations que cela implique, 
  • Modifications des données traitées,
  • Réutilisation dans un cas d’usage à haut risque au sens de l’Annexe III de l’AI Act. 

 

Les autres systèmes : risques limités et risques minimaux 

Au-delà des systèmes interdits ou à haut risque, l’AI Act prévoit deux autres catégories de systèmes, assorties de niveaux d’obligations différenciés : 

Ces systèmes n’engendrent pas de risques significatifs pour la sécurité ou les droits fondamentaux, mais leur usage peut avoir un impact sur la relation avec les utilisateurs. Ils sont donc soumis à des obligations spécifiques de transparence, qui ne sont ni accessoires, ni symboliques. 

Cela concerne notamment : 

  • Les systèmes qui interagissent avec des personnes physiques (ex. : certains chatbots, assistants virtuels, systèmes de recommandation, sous réserve que leur usage ne relève pas d’un cas à haut risque) ;  
  • Les systèmes générant du contenu (comme les deepfakes ou autres contenus synthétiques ), dès lors qu’ils ne sont pas utilisés à des fins interdites ou à haut risque ; 
  • Et, selon leur contexte d’usage, certains systèmes détectant des émotions ou des signaux biométriques, à condition qu’ils ne relèvent pas des cas d’usage critiques identifiés par l’Annexe III. 

Dans ces cas : 

  • Les utilisateurs doivent être informés de manière claire qu’ils interagissent avec un système d’intelligence artificielle, 
  • Et les contenus générés par ces systèmes doivent être clairement labellisés comme tels. 

Cette catégorie inclut des systèmes d’usage courant, comme : 

  • Les filtres anti-spam, 
  • Les algorithmes de tri de documents, ou 
  • D’autres outils automatisés utilisés dans un cadre strictement administratif ou interne. 

Ces systèmes ne font pas l’objet d’obligations réglementaires contraignantes dans le cadre de l’AI Act. Toutefois, les organisations peuvent choisir d’adhérer volontairement à des codes de conduite ou à des pratiques responsables pour renforcer la confiance et anticiper les attentes futures en matière de gouvernance. 

Conformité : des exigences renforcées pour les systèmes d’IA à haut risque 

Pour qu’un système d’IA à haut risque puisse être mis sur le marché européen, les fournisseurs doivent établir une déclaration de conformité, attestant que leur système respecte les exigences de l’AI Act tout au long de son cycle de vie. 

Trois piliers structurent cette conformité : 

Les fournisseurs doivent mettre en œuvre un QMS rigoureux, garantissant : 

  • La qualité des données et leur gouvernance, 
  • Une documentation technique complète, 
  • Le respect des obligations d’archivage et de traçabilité, 
  • La gestion des risques liés à l’IA, 
  • La supervision humaine adéquate des systèmes, 
  • Et la validation des modèles selon les principes d’une IA digne de confiance (transparence, robustesse, précision, cybersécurité). 

Il s’agit d’identifier, d’anticiper et de maîtriser les risques inhérents au système d’IA, en : 

  • Mettant en place des mécanismes de contrôle adaptés,
  • Élaborant des plans de contingence en cas de défaillance,
  • Et désignant des responsabilités claires en matière de gestion des incidents. 

Les fournisseurs doivent démontrer que la conformité n’est pas ponctuelle mais s’inscrit dans la durée : 

  • Les risques doivent être évalués et gérés de manière continue, 
  • Le système doit être enregistré dans la base de données européenne des IA à haut risque, 
  • Et les incidents doivent être journalisés et remontés tout au long de la vie du système. 

Pour une vision plus détaillée de ces exigences, nous vous invitons à consulter notre article dédié à la gouvernance de l’IA. 

Mise en œuvre et application : un dispositif de supervision multi-niveaux 

L’AI Act prévoit des modalités spécifiques pour garantir la mise en œuvre effective de ses exigences, notamment pour les systèmes d’IA à haut risque. 

Selon le cas, les fournisseurs doivent : 

  • Soit procéder à une auto-évaluation de conformité (notamment pour certaines applications listées à l’Annexe III),
  • Soit faire appel à un organisme tiers notifié pour conduire une évaluation indépendante, comme cela est requis pour les systèmes intégrés à des produits régulés par d’autres législations sectorielles européennes (ex. dispositifs médicaux, machines, jouets). 

Pour superviser l’application de la règlementation, l’AI Act s’appuie sur une architecture institutionnelle à deux niveaux : 

Au niveau national 

Chaque État membre doit désigner une ou plusieurs autorités compétentes chargées :

  • De la surveillance du marché,
  • De la vérification des évaluations de conformité,
  • De la désignation des organismes notifiés habilités à procéder à des audits, et
  • De l’application des sanctions en cas de non-respect du règlement. 

 

Au niveau européen 

La Commission européenne s’appuie sur plusieurs instances, dont :

  • Le Bureau de l’IA de l’UE (EU AI Office), chargé de coordonner la mise en œuvre dans les États membres, notamment pour les modèles d’IA à usage général,
  • Un comité multipartite rassemblant les autorités nationales, la société civile et les experts, et
  • Un panel scientifique consultatif, chargé d’évaluer les risques systémiques et de proposer des recommandations fondées sur l’état de l’art scientifique et technologique. 

Au niveau européen : un pilotage centralisé et pluridisciplinaire 

Au sein de la Commission européenne, le Bureau de l’IA de l’UE (EU AI Office) constitue la pierre angulaire du dispositif de supervision de la réglementation sur l’IA. Cette nouvelle autorité joue un rôle stratégique dans la mise en œuvre cohérente de l’AI Act à l’échelle des États membres, en particulier pour les modèles d’IA à usage général (GPAI) présentant des impacts significatifs. 

Pour garantir une gouvernance équilibrée, le Bureau s’appuie sur deux organes consultatifs majeurs : 

Le Comité IA (AI Board) 

Rattaché au Bureau de l’IA, ce comité regroupe des représentants des États membres, mais aussi des acteurs issus du monde économique, de la société civile et du secteur académique. Il joue un rôle essentiel en : 

  • Apportant des commentaires critiques sur les orientations réglementaires, et
  • En veillant à ce que la mise en œuvre tienne compte d’une pluralité de points de vue. 

Le Panel consultatif scientifique 

Composé d’experts indépendants, ce panel est chargé :

  • D’identifier les risques systémiques liés aux systèmes d’IA,
  • De formuler des recommandations techniques et scientifiques, et
  • De contribuer à la définition des critères de classification des modèles d’IA (notamment GPAI). 

 

L’objectif de cette gouvernance est clair : faire en sorte que la réglementation européenne sur l’IA soit à la fois rigoureuse, ouverte et alignée sur l’état de l’art scientifique. Cette approche permet aux entreprises comme aux citoyens de mieux s’orienter dans un paysage réglementaire en constante évolution. 

 

Au niveau national : des autorités de surveillance en première ligne 

Chaque État membre de l’Union européenne devra désigner comme autorités nationales compétentes au moins une autorité de notification et au moins une autorité de surveillance du marché, pour assurer l’application de l’AI Act sur son territoire. 

Leurs responsabilités couvrent notamment : 

  • La vérification des évaluations de conformité réalisées par les fournisseurs ou les tiers, afin de s’assurer qu’elles sont conduites de manière appropriée et dans les délais requis, 
  • La désignation des organismes notifiés habilités à effectuer ces évaluations indépendantes lorsqu’elles sont requises par la réglementation (par exemple pour certains systèmes à haut risque), 
  • La mise en œuvre des contrôles, enquêtes ou mesures correctives, en cas de non-conformité ou de plainte. 

En France, la désignation officielle de l’autorité nationale compétente est attendue d’ici août 2025. Celle-ci jouera un rôle essentiel dans la coordination avec le Bureau de l’IA, notamment pour le partage d’informations, la gestion des signalements et l’application harmonisée des règles. 

Sanctions en cas de non-conformité : un régime proportionné mais dissuasif 

Le régime de sanctions prévu par l’AI Act est gradué selon la gravité des manquements et le niveau de risque des systèmes concernés. Il vise à garantir une application cohérente du cadre réglementaire et à dissuader les comportements non conformes. 

Sanctions financières maximales 

Selon l’article 99 de la réglementation, les montants des amendes peuvent atteindre : 

  • 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial (le montant le plus élevé), en cas de violation des interdictions strictes de l’article 5 (pratiques interdites), 
  • 15 millions d’euros ou 3 % du chiffre d’affaires mondial, pour des manquements aux obligations générales de conformité (ex. : obligations de documentation, d’évaluation des risques ou de transparence), 
  • 7,5 millions d’euros ou 1 % du chiffre d’affaires mondial, en cas de fourniture d’informations inexactes, incomplètes ou trompeuses aux autorités ou organismes notifiés. 

Autres mesures coercitives 

Outre les sanctions pécuniaires, les autorités nationales de surveillance peuvent :

  • Ordonner le retrait du marché d’un système d’IA non conforme,
  • Imposer des injonctions, y compris à titre provisoire, notamment en cas de danger grave et immédiat. 

Traitement différencié pour les PME et start-ups 

L’AI Act prévoit des sanctions allégées pour les petites structures, afin de ne pas freiner l’innovation, tout en maintenant une exigence minimale de conformité. 

Calendrier d’application des sanctions 

  • Les sanctions financières entreront en vigueur à partir du 2 août 2025. 
  • En revanche, les pratiques interdites (article 5) sont déjà effectives depuis le 2 février 2025, ce qui signifie que des recours judiciaires peuvent d’ores et déjà être engagés par des personnes affectées, notamment devant les juridictions nationales, avec possibilité d’obtenir des injonctions en référé. 

Calendrier de mise en œuvre de la Réglementation sur l’IA 

La réglementation européenne sur l’intelligence artificielle (AI Act) est entrée en vigueur le 1er août 2024, mais son application s’effectuera de manière progressive selon un calendrier échelonné défini à l’article 113 du texte. Ce phasage permet aux parties prenantes de se préparer à la conformité en fonction de la nature des systèmes concernés. 

Échéances clés 

2 février 2025 

Entrée en vigueur de l’article 5 : Interdiction immédiate des pratiques jugées inacceptables, telles que notamment : 

  • L’exploitation des vulnérabilités,
  • La notation sociale basée sur le comportement ,
  • Les techniques subliminales,
  • Ou encore certaines formes de reconnaissance émotionnelle dans l’environnement professionnel et éducatif.

 2 août 2025 

Début de l’application des règles concernant les modèles d’IA à usage général (GPAI). 

  • L’EU AI Office supervisera leur gouvernance. 
  • Un Code de conduite volontaire dédié aux modèles d’IA à usage général (GPAI) est actuellement en cours d’élaboration sous la coordination du Bureau de l’IA. Initialement prévu pour mai 2025. Sa publication a été repoussée à août 2025 afin de permettre une consultation publique élargie et de finaliser les contributions des parties prenantes. Ce Code vise à détailler les obligations spécifiques aux GPAI, telles que définies dans l’AI Act, et à servir d’outil central pour démontrer la conformité des fournisseurs de ces modèles. Il précédera l’adoption de normes techniques harmonisées au niveau européen, élaborées en collaboration avec la Commission européenne. 
  • Les sanctions pour non-conformité commenceront à s’appliquer, bien que les amendes liées aux GPAI déjà présents sur le marché avant le 2 août 2025 seront temporairement différées pour faciliter leur mise en conformité. 

2 août 2026 

Début de l’application générale de la réglementation : 

Mise en conformité obligatoire pour les systèmes d’IA à haut risque listés dans l’Annexe III de l’AI Act. 

Entrée en vigueur des obligations de transparence et des premières expérimentations via les « AI real labs ». 

2 août 2027 

  • Application des obligations complémentaires pour les systèmes à haut risque identifiés dans l’Annexe I de l’AI Act (y compris les composants de sécurité concernés) et les GPAI mis sur le marché avant le 2 août 2025. 

2 août 2030 

Début de l’application des obligations pour les systèmes à haut risque mis en service avant le 2 août 2026, lorsqu’ils sont utilisés par des autorités publiques. 

Fin 2030 

Fin des périodes de transition (« grace periods ») pour :

  • Les systèmes IT à grande échelle listés dans l’Annexe X de l’AI Act, mis en place avant août 2025 et utilisés par les autorités publiques (article 111, échéance 2030),
  • Les GPAI antérieurs au 2 août 2025, pour lesquels les obligations complémentaires s’appliqueront à partir du 2 août 2027.

 

Pacte sur l’IA : une mise en conformité anticipée 

En parallèle de ce calendrier, la Commission européenne a lancé le Pacte sur l’IA, un cadre volontaire destiné à encourager les fournisseurs à anticiper leur mise en conformité, en appliquant dès à présent les exigences clés de la réglementation. Cette démarche vise à favoriser une convergence réglementaire internationale, tout en préparant les entreprises aux futures exigences contraignantes. 

Utiliser les systèmes d'IA en toute sécurité : anticiper, structurer, gouverner 

Bien que certaines modalités pratiques de l’AI Act restent à affiner, le texte fournit déjà une vision claire de sa portée, de ses objectifs et des responsabilités attendues. Les entreprises doivent s’y préparer sans attendre, en renforçant leurs dispositifs internes et en adoptant une posture proactive de gestion des risques liés à l’IA. 

Cela implique notamment : 

  • D’adapter les processus internes à la logique de cycle de vie des systèmes d’IA,
  • De cartographier les usages actuels et projets en cours,
  • De sensibiliser les collaborateurs aux nouvelles obligations réglementaires,
  • Et d’identifier les cas d’usage potentiellement à haut risque nécessitant une vigilance accrue. 

Parallèlement, l’organisme européen de normalisation CEN-CENELEC traduira les exigences de la réglementation en standards techniques harmonisés, facilitant les processus de tests, de certifications et d’auditabilité. La Commission européenne, de son côté, publiera régulièrement des lignes directrices pour accompagner les acteurs dans l’interprétation et la mise en œuvre du texte. 

S’il est essentiel d’intégrer ces nouvelles exigences, les entreprises peuvent capitaliser sur les approches existantes, notamment celles mises en place dans le cadre du RGPD, pour structurer une gouvernance robuste, conforme et alignée sur les principes d’une IA digne de confiance. 

L’accompagnement Deloitte : une approche intégrée du Trustworthy AI 

Chez Deloitte, nous accompagnons nos clients dans la mise en conformité réglementaire, la maîtrise des risques et la transformation responsable par l’IA. 

Notre approche s’appuie :

  • Sur les six phases du cycle de vie des systèmes d’IA, telles que définies dans l’AI Act,
  • Sur une expertise sectorielle éprouvée dans les environnements réglementés,
  • Et sur des outils d’évaluation, de documentation et de validation développés pour garantir la robustesse et la traçabilité des systèmes. 

En mobilisant notre leadership en matière de Trustworthy AI, nous vous aidons à transformer les contraintes réglementaires en opportunités de différenciation, au service d’une innovation responsable et durable. 

Un rôle de premier plan dans le domaine de l'IA de confiance 

Chez Deloitte, nous mettons au service de nos clients une expertise reconnue dans la mise en œuvre de systèmes d’intelligence artificielle, adossée à des méthodologies rigoureuses d’audit, de validation et de conformité. Nous nous engageons à faire de l’IA un levier de performance maîtrisée, aligné sur les principes d’éthique, de qualité et de responsabilité. 

Notre démarche va bien au-delà de simples checklists :

  • Nous réalisons des analyses quantitatives et qualitatives approfondies,
  • Nous testons les modèles à chaque étape critique pour détecter les erreurs logiques, les incohérences méthodologiques, ou les vulnérabilités liées aux données,
  • Et nous évaluons systématiquement le niveau de transparence, robustesse, traçabilité et sécurité des systèmes d’IA. 

Nous sommes convaincus qu’une approche rigoureuse, industrialisée mais adaptable est la seule manière de répondre durablement aux exigences réglementaires comme aux attentes sociétales. 

 

Des outils dédiés pour gagner en efficacité 

Parce que chaque projet ne doit pas être un redémarrage, nous avons développé une boîte à outils technico-réglementaire facilitant :

  • La documentation technique attendue par les régulateurs,
  • La traçabilité des décisions algorithmiques,
  • Et l’efficacité des cycles de validation et d’amélioration continue. 

 

Une pensée structurée pour une IA responsable 

Notre série de livres blancs spécialisés illustre pourquoi il est aujourd’hui essentiel de :

  • Structurer des garde-fous techniques et éthiques autour des systèmes d’IA,
  • Bâtir une gouvernance intégrée, et
  • Instaurer des pratiques qui renforcent durablement la confiance dans les modèles et leurs usages. 

Parce que l’IA façonne désormais des choix décisifs pour les organisations et la société, elle exige une vigilance à la hauteur de son potentiel. 

1. À noter : un allègement des exigences de l’AI Act pour les PME pourrait être introduit à l’automne 2025, dans le cadre du paquet législatif numérique dit « Omnibus ». Cette initiative vise à adapter certaines obligations réglementaires aux capacités des petites structures, tout en maintenant un niveau de conformité adéquat. 

2. Par « heuristiques classiques », on entend les méthodes reposant sur des règles fixes, non apprenantes, comme les algorithmes déterministes (« if-then-else »), les solveurs mathématiques, ou les prévisions statistiques simples. Ces approches, qui ne font preuve ni d’autonomie ni d’adaptabilité, sont exclues du champ d’application de l’AI Act. 

AI Act– Réglementation européenne sur l’IA

Avril 2025