L’Union européenne a adopté le 1er août 2024 l’AI Act, également appelé « Réglementation européenne sur l’intelligence artificielle ». Il s’agit du premier cadre législatif au monde spécifiquement conçu pour encadrer l’usage des systèmes d’IA.
L’objectif principal de l’EU AI Act est de renforcer le bon fonctionnement du marché unique européen tout en favorisant l’émergence d’une intelligence artificielle éthique et centrée sur l’humain. Le texte vise à garantir un niveau élevé de protection en matière de santé, de sécurité et de respect des droits fondamentaux – tels que définis dans la Charte des droits fondamentaux de l’Union européenne – y compris la démocratie, l’État de droit et la préservation de l’environnement.
L’AI Act se positionne avant tout comme une « réglementation produit » : il encadre les systèmes d’IA proposés sur le marché européen, qu’ils soient développés dans l’Union ou importés. En imposant des exigences spécifiques en fonction des risques identifiés, il ambitionne de protéger les citoyens contre les effets potentiellement préjudiciables de l’intelligence artificielle, sans freiner pour autant l’innovation.
Les fournisseurs de systèmes d’IA classés comme présentant un risque élevé seront désormais soumis à un ensemble d’exigences strictes, inspirées des principes d’une IA digne de confiance : gouvernance, qualité des données, transparence, robustesse, supervision humaine, etc. Le non-respect de ces obligations pourra entraîner des sanctions importantes, allant jusqu’au retrait du système du marché européen.
L’AI Act ne se limite pas à un cadre de contrôle : il définit également des principes, des règles et des procédures étendus, tout en introduisant de nouvelles structures de supervision au niveau national et européen. Pour autant, cette réglementation n’a pas pour objectif de freiner l’innovation. Elle a été pensée pour encourager un développement responsable et sécurisé de l’IA en Europe, notamment en soutenant les start-up et les PME1, grâce à un cadre clair, une sécurité juridique renforcée et des dispositifs d’expérimentation comme les bacs à sable réglementaires.
La définition retenue par l’AI Act s’appuie sur celle proposée par l’OCDE, aujourd’hui largement reconnue au niveau international.
Un système d’intelligence artificielle y est défini comme :
Un système basé sur une machine, conçu pour fonctionner avec des niveaux d’autonomie variables et capable, une fois déployé, de faire preuve d’adaptabilité. Ce système poursuit des objectifs explicites ou implicites et, en fonction des données qu’il reçoit, peut générer des résultats – tels que des prédictions, du contenu, des recommandations ou des décisions – susceptibles d’influencer des environnements physiques ou virtuels.
Cette définition met l’accent sur trois caractéristiques fondamentales :
L’autonomie du système,
Sa capacité d’adaptation,
Son aptitude à produire des résultats qui ont un impact concret sur le monde réel ou numérique.
Un système d’IA, au sens de la réglementation européenne, se caractérise par sa capacité à générer des résultats (outputs) à partir de données, que ce soit sous la forme de prédictions, de recommandations, de décisions ou de contenus. Cette capacité, décrite dans le texte comme l’« aptitude à tirer des conclusions » (« ability to draw conclusions »), désigne la faculté du système à transformer les données en actions ou informations ayant un impact sur les environnements réels ou virtuels.
Ces fonctionnalités reposent sur des techniques telles que l’apprentissage automatique (machine learning) ou des approches basées sur des règles logiques ou symboliques.
Les systèmes d’IA peuvent présenter des niveaux d’autonomie variables : ils peuvent fonctionner de manière indépendante ou être intégrés dans des produits, tout en s’adaptant de façon autonome à leur usage et à leur environnement.
La définition retenue par l’AI Act est volontairement large, ce qui implique qu’un grand nombre de systèmes ou de produits numériques pourraient, en théorie, relever de la réglementation. Toutefois, les lignes directrices publiées par la Commission européenne en février 2025 sont venues clarifier et restreindre ce périmètre : certains systèmes ne relèvent pas de la définition, notamment ceux qui se limitent à de l’optimisation mathématique, au traitement simple de données, à des heuristiques classiques2, ou à des prévisions simples fondées sur des règles statistiques déterministes.
Ces clarifications visent à mieux circonscrire le champ d’application matériel de l’AI Act et à éviter des interprétations trop extensives, tout en conservant une couverture adaptée aux évolutions technologiques des systèmes d’IA.
Les lignes directrices de la Commission européenne identifient sept éléments clés qui, ensemble, permettent de caractériser un système comme relevant de la définition de l’intelligence artificielle au sens de l’AI Act.
Cette définition repose sur une approche fondée sur le cycle de vie du système, couvrant à la fois les phases pré-déploiement (conception, développement) et post-déploiement (utilisation effective). Tous les éléments n’ont pas besoin d’être présents à chaque étape, mais chacun doit être observé au moins une fois sur l’ensemble du cycle de vie pour que le système entre dans le champ d’application de la réglementation.
Les sept éléments structurants sont les suivants :
Ces critères permettent d’englober la diversité des architectures et des usages, tout en maintenant une ligne directrice claire. Toutefois, chaque système doit être évalué au cas par cas, en tenant compte de ses caractéristiques propres, pour déterminer s’il constitue ou non un système d’IA selon la définition réglementaire.
L’AI Act s’applique exclusivement aux systèmes et aux cas d’usage relevant du droit de l’Union européenne. Il encadre la mise sur le marché, la mise en service et l’utilisation des systèmes d’intelligence artificielle au sein de l’UE, qu’ils soient développés localement ou importés depuis des pays tiers.
Certains usages sont explicitement exclus du champ d’application de la réglementation :
La réglementation s’applique à tous les acteurs intervenant dans le cycle de vie d’un système d’IA, dès lors que celui-ci est destiné au marché européen :
Tous ces acteurs doivent s’assurer que les systèmes d’IA qu’ils mettent en œuvre respectent les exigences de la règlementation, en fonction du niveau de risque identifié.
En complément des modèles d’IA « conventionnels », ciblés sur des tâches spécifiques, l’AI Act introduit une catégorie spécifique : les modèles d’intelligence artificielle à usage général (General Purpose AI, ou GPAI). Ces modèles, souvent à la base des systèmes d’IA générative, se caractérisent par leur flexibilité d’usage et leur capacité à être déployés dans des contextes très varié et utilisés au-delà des cas d’usage prévus initialement.
Contrairement aux systèmes d’IA classiques, qui sont évalués en fonction de leur cas d’usage, les GPAI sont classés selon la performance et la portée du modèle de base sous-jacent. Deux niveaux d’obligations sont prévus :
La distinction entre ces deux niveaux repose sur un seuil objectif lié à la puissance de calcul nécessaire à l’entraînement du modèle, mesurée en FLOPs (« Floating point operations per second »). Un modèle qui dépasse ce seuil de 10^25 FLOPs est considéré comme potentiellement à risque systémique.
Pour accompagner cette règlementation, des codes de conduite sectoriels sont en cours d’élaboration avec l’appui d’experts de l’industrie, du monde académique et de la société civile. Un Code of Practice dédié aux GPAI est d’ailleurs attendu d’ici août 2025, à la suite du lancement d’une consultation publique par la Commission européenne. Ce code précédera l’adoption de normes techniques harmonisées au niveau européen, élaborées en collaboration avec la Commission.
L’AI Act adopte une approche proportionnée et fondée sur le risque : tous les systèmes d’intelligence artificielle ne sont pas régulés de la même manière. Le niveau d’exigence dépend du potentiel d’impact du système sur la santé, la sécurité ou les droits fondamentaux des personnes.
Deux grandes familles de systèmes sont distinguées :
Pour les systèmes à objectif spécifique, le niveau de risque détermine les obligations spécifiques applicables. Quatre catégories ont été établies :
Cette classification permet de cibler la régulation là où elle est la plus nécessaire, sans entraver l’innovation dans les usages à faible impact.
Depuis le 2 février 2025, certains systèmes d’intelligence artificielle présentant un risque jugé inacceptable sont formellement interdits par l’AI Act. Ces interdictions visent à protéger les droits fondamentaux, la dignité humaine et le libre arbitre des individus.
Parmi les pratiques prohibées figurent notamment :
Ces systèmes ne sont pas interdits, mais classés à haut risque. Leur utilisation reste strictement encadrée, notamment pour :
La Commission européenne a publié en février 2025 des lignes directrices pour clarifier ces interdictions. Elles incluent de nombreux exemples concrets et insistent sur la distinction, parfois subtile, entre un usage interdit et un usage à haut risque. Une évaluation rigoureuse et contextualisée de chaque cas est donc essentielle pour éviter toute non-conformité.
Le cœur du dispositif réglementaire de l’AI Act repose sur les systèmes d’IA à haut risque (High-Risk AI Systems – HRAI), qui sont soumis à un ensemble structuré d’obligations de conformité. Les fournisseurs concernés doivent notamment :
La Commission européenne publiera d’ici au 1er février 2026 des lignes directrices pratiques et des exemples concrets pour aider à l’identification des systèmes relevant du haut risque. L’application générale de l’AI Act pour ces systèmes débutera le 2 août 2026.
Les systèmes à haut risque se répartissent en deux catégories :
Les systèmes d’identification biométrique à distance (RBI), en particulier ceux utilisés en temps réel dans des espaces publics, sont également classés à haut risque, avec des règles spécifiques applicables à partir du 2 août 2026. Ces systèmes ne peuvent être utilisés que dans des cas strictement encadrés :
Un système d’IA non classé initialement comme « haut risque » peut devenir un système HRAI dans les cas suivants :
Au-delà des systèmes interdits ou à haut risque, l’AI Act prévoit deux autres catégories de systèmes, assorties de niveaux d’obligations différenciés :
Ces systèmes ne font pas l’objet d’obligations réglementaires contraignantes dans le cadre de l’AI Act. Toutefois, les organisations peuvent choisir d’adhérer volontairement à des codes de conduite ou à des pratiques responsables pour renforcer la confiance et anticiper les attentes futures en matière de gouvernance.
Pour qu’un système d’IA à haut risque puisse être mis sur le marché européen, les fournisseurs doivent établir une déclaration de conformité, attestant que leur système respecte les exigences de l’AI Act tout au long de son cycle de vie.
Trois piliers structurent cette conformité :
Pour une vision plus détaillée de ces exigences, nous vous invitons à consulter notre article dédié à la gouvernance de l’IA.
L’AI Act prévoit des modalités spécifiques pour garantir la mise en œuvre effective de ses exigences, notamment pour les systèmes d’IA à haut risque.
Selon le cas, les fournisseurs doivent :
Pour superviser l’application de la règlementation, l’AI Act s’appuie sur une architecture institutionnelle à deux niveaux :
Chaque État membre doit désigner une ou plusieurs autorités compétentes chargées :
La Commission européenne s’appuie sur plusieurs instances, dont :
Au sein de la Commission européenne, le Bureau de l’IA de l’UE (EU AI Office) constitue la pierre angulaire du dispositif de supervision de la réglementation sur l’IA. Cette nouvelle autorité joue un rôle stratégique dans la mise en œuvre cohérente de l’AI Act à l’échelle des États membres, en particulier pour les modèles d’IA à usage général (GPAI) présentant des impacts significatifs.
Pour garantir une gouvernance équilibrée, le Bureau s’appuie sur deux organes consultatifs majeurs :
Le Comité IA (AI Board)
Rattaché au Bureau de l’IA, ce comité regroupe des représentants des États membres, mais aussi des acteurs issus du monde économique, de la société civile et du secteur académique. Il joue un rôle essentiel en :
Le Panel consultatif scientifique
Composé d’experts indépendants, ce panel est chargé :
L’objectif de cette gouvernance est clair : faire en sorte que la réglementation européenne sur l’IA soit à la fois rigoureuse, ouverte et alignée sur l’état de l’art scientifique. Cette approche permet aux entreprises comme aux citoyens de mieux s’orienter dans un paysage réglementaire en constante évolution.
Chaque État membre de l’Union européenne devra désigner comme autorités nationales compétentes au moins une autorité de notification et au moins une autorité de surveillance du marché, pour assurer l’application de l’AI Act sur son territoire.
Leurs responsabilités couvrent notamment :
En France, la désignation officielle de l’autorité nationale compétente est attendue d’ici août 2025. Celle-ci jouera un rôle essentiel dans la coordination avec le Bureau de l’IA, notamment pour le partage d’informations, la gestion des signalements et l’application harmonisée des règles.
Le régime de sanctions prévu par l’AI Act est gradué selon la gravité des manquements et le niveau de risque des systèmes concernés. Il vise à garantir une application cohérente du cadre réglementaire et à dissuader les comportements non conformes.
Sanctions financières maximales
Selon l’article 99 de la réglementation, les montants des amendes peuvent atteindre :
Autres mesures coercitives
Outre les sanctions pécuniaires, les autorités nationales de surveillance peuvent :
Traitement différencié pour les PME et start-ups
L’AI Act prévoit des sanctions allégées pour les petites structures, afin de ne pas freiner l’innovation, tout en maintenant une exigence minimale de conformité.
Calendrier d’application des sanctions
La réglementation européenne sur l’intelligence artificielle (AI Act) est entrée en vigueur le 1er août 2024, mais son application s’effectuera de manière progressive selon un calendrier échelonné défini à l’article 113 du texte. Ce phasage permet aux parties prenantes de se préparer à la conformité en fonction de la nature des systèmes concernés.
2 février 2025
Entrée en vigueur de l’article 5 : Interdiction immédiate des pratiques jugées inacceptables, telles que notamment :
2 août 2025
Début de l’application des règles concernant les modèles d’IA à usage général (GPAI).
2 août 2026
Début de l’application générale de la réglementation :
Mise en conformité obligatoire pour les systèmes d’IA à haut risque listés dans l’Annexe III de l’AI Act.
Entrée en vigueur des obligations de transparence et des premières expérimentations via les « AI real labs ».
2 août 2027
2 août 2030
Début de l’application des obligations pour les systèmes à haut risque mis en service avant le 2 août 2026, lorsqu’ils sont utilisés par des autorités publiques.
Fin 2030
Fin des périodes de transition (« grace periods ») pour :
En parallèle de ce calendrier, la Commission européenne a lancé le Pacte sur l’IA, un cadre volontaire destiné à encourager les fournisseurs à anticiper leur mise en conformité, en appliquant dès à présent les exigences clés de la réglementation. Cette démarche vise à favoriser une convergence réglementaire internationale, tout en préparant les entreprises aux futures exigences contraignantes.
Bien que certaines modalités pratiques de l’AI Act restent à affiner, le texte fournit déjà une vision claire de sa portée, de ses objectifs et des responsabilités attendues. Les entreprises doivent s’y préparer sans attendre, en renforçant leurs dispositifs internes et en adoptant une posture proactive de gestion des risques liés à l’IA.
Cela implique notamment :
Parallèlement, l’organisme européen de normalisation CEN-CENELEC traduira les exigences de la réglementation en standards techniques harmonisés, facilitant les processus de tests, de certifications et d’auditabilité. La Commission européenne, de son côté, publiera régulièrement des lignes directrices pour accompagner les acteurs dans l’interprétation et la mise en œuvre du texte.
S’il est essentiel d’intégrer ces nouvelles exigences, les entreprises peuvent capitaliser sur les approches existantes, notamment celles mises en place dans le cadre du RGPD, pour structurer une gouvernance robuste, conforme et alignée sur les principes d’une IA digne de confiance.
Chez Deloitte, nous accompagnons nos clients dans la mise en conformité réglementaire, la maîtrise des risques et la transformation responsable par l’IA.
Notre approche s’appuie :
En mobilisant notre leadership en matière de Trustworthy AI, nous vous aidons à transformer les contraintes réglementaires en opportunités de différenciation, au service d’une innovation responsable et durable.
Chez Deloitte, nous mettons au service de nos clients une expertise reconnue dans la mise en œuvre de systèmes d’intelligence artificielle, adossée à des méthodologies rigoureuses d’audit, de validation et de conformité. Nous nous engageons à faire de l’IA un levier de performance maîtrisée, aligné sur les principes d’éthique, de qualité et de responsabilité.
Notre démarche va bien au-delà de simples checklists :
Nous sommes convaincus qu’une approche rigoureuse, industrialisée mais adaptable est la seule manière de répondre durablement aux exigences réglementaires comme aux attentes sociétales.
Parce que chaque projet ne doit pas être un redémarrage, nous avons développé une boîte à outils technico-réglementaire facilitant :
Notre série de livres blancs spécialisés illustre pourquoi il est aujourd’hui essentiel de :
Parce que l’IA façonne désormais des choix décisifs pour les organisations et la société, elle exige une vigilance à la hauteur de son potentiel.