La loi de l'UE sur l'IA, la première loi globale sur l'IA au monde, entrera en vigueur 20 jours après sa publication au Journal officiel de l'UE le 12 juillet 2024, c'est-à-dire le 1er août 2024. La loi sera mise en œuvre de manière progressive et les entreprises, y compris celles de Suisse, seront confrontées à de nouvelles exigences de conformité étendues. Cette loi aura un impact significatif sur la manière dont les entreprises développent, déploient et gèrent les systèmes d'IA, en veillant à ce qu'ils s'alignent sur des normes réglementaires strictes. Cet article donne un aperçu détaillé de ce que les entreprises doivent savoir et de la manière dont elles peuvent se préparer.
La loi européenne sur l'IA établit un cadre complet pour faire face aux risques potentiels associés aux systèmes d'IA. S'appuyant sur une définition large de l'IA, la législation énonce de nombreuses exigences et prévoit des sanctions importantes en cas de non-respect.
La loi européenne sur l'IA définit un système d'IA comme "un système basé sur une machine qui est conçu pour fonctionner avec différents niveaux d'autonomie et qui peut faire preuve d'adaptabilité après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des données qu'il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels". Cette définition large est conçue pour couvrir un large éventail de technologies et d'applications de l'IA, allant de simples systèmes automatisés à des algorithmes d'auto-apprentissage plus complexes.
La loi introduit une approche fondée sur le risque, en classant les systèmes d'IA en fonction de leur cas d'utilisation et en établissant des exigences en fonction de la catégorie de risque. La loi distingue les modèles d'IA à usage général, qui sont soumis à un ensemble de règles différent.
L'intelligence artificielle à usage général (GPAI) désigne l'intelligence artificielle capable de fonctionner avec une grande généralité et conçue pour exécuter un large éventail de tâches distinctes. La loi européenne sur l'IA établit une distinction entre les modèles d'IAGP, tels que le GPT-4 d'OpenAI, et les systèmes d'IAGP qui utilisent ces modèles. Les assistants personnels virtuels tels que Siri d'Apple ou les services de traduction tels que Google Translate sont des exemples de systèmes GPAI. La loi sur l'IA impose des obligations aux fournisseurs de modèles GPAI présentant un risque systémique en raison de leurs capacités à fort impact, comme l'OpenAI pour le GPT-4. Les systèmes GPAI construits à partir d'un modèle GPAI sont évalués séparément et peuvent appartenir à n'importe quelle catégorie de risque. Par exemple, un chatbot assistant construit sur la base du GPT-4 relève de la catégorie des risques limités et ne doit se conformer qu'aux exigences en matière de transparence.
La loi définit différents types d'entités, telles que les fournisseurs, les déployeurs, les importateurs, les distributeurs, les fabricants de produits et les représentants autorisés, qui doivent se conformer à différentes exigences. Les fournisseurs, qui développent et placent des systèmes d'IA sur le marché de l'UE, sont les premiers responsables de la conformité. Les déployeurs, qui utilisent des systèmes d'IA dans le cadre de leurs activités, doivent respecter des obligations spécifiques, en particulier pour les systèmes d'IA à risque élevé et à risque limité.
Pour les entreprises situées en dehors de l'UE, y compris en Suisse, la loi sur l'IA de l'UE s'applique si elles :
Si vous souhaitez en savoir plus sur la loi européenne sur l'IA et ses implications pour les entreprises suisses, n'hésitez pas à nous contacter.