Partout où la création de contenu est présente dans un processus ou un service métier, il y a une opportunité de tirer parti de l'IA générative. Les cas d'utilisation potentiels, dans différents secteurs et applications, sont les suivants :
Les avantages potentiels de l'IA générative sont énormes. Cependant, ils s'accompagnent de risques considérables et soulèvent un certain nombre de préoccupations d'ordre juridique, éthique et réglementaire. Par exemple, la capacité de l'IA générative à générer un contenu hypercompliqué crée un risque de désinformation, ainsi qu'un risque de fraude pour les organisations qui s'appuient sur des données provenant de tiers pour prendre leurs décisions. L'IA générative suscite également des inquiétudes quant au respect des lois sur la protection des données, compte tenu des risques liés à la confidentialité et à la sécurité des données, car les fournisseurs peuvent utiliser des données d'entrée sensibles pour améliorer leur modèle ou partager ces données avec des tiers, et les droits individuels tels que la suppression, l'information, le consentement et le retrait sont plus difficiles à faire respecter. Il existe également un risque d'utilisation abusive. Les systèmes d'IA générative peuvent être utilisés à des fins autres que celles prévues à l'origine, comme la création de campagnes d'hameçonnage et de logiciels malveillants sophistiqués - ce qui poserait également des risques pour la cybersécurité - même lorsque des garde-fous sont en place.
La question de savoir si les utilisateurs peuvent revendiquer les droits d'auteur sur le contenu généré par un système d'IA générative formé à partir de données protégées par des droits d'auteur fait l'objet de poursuites judiciaires dans le monde entier. La question de savoir si un système d'IA générative devrait être reconnu comme l'auteur de publications scientifiques est une question éthique, car il ne pourrait pas être tenu responsable de la qualité et de l'intégrité du contenu qu'il génère. Pour couronner le tout, les organisations qui mettent sur le marché ou en service des systèmes d'IA devront bientôt se conformer à des réglementations visant à contrôler les risques, comme l'a imploré Sam Altman.
La loi sur l'intelligence artificielle de l'Union européenne (UE) est actuellement examinée par le Parlement européen et devrait être approuvée en 2024. Il s'agit d'une approche de la réglementation de l'IA qui fixe des exigences minimales pour répondre aux risques et aux préoccupations liés à l'IA.
L'IA générative pose des défis réglementaires spécifiques. Les systèmes d'IA à haut risque, définis comme ceux qui risquent de nuire à la santé et à la sécurité des personnes ou d'avoir un impact négatif sur leurs droits fondamentaux, seront soumis à des exigences de conformité strictes : gestion continue des risques, gouvernance et gestion rigoureuses des données, documentation technique complète et tenue de registres, assurance d'une surveillance humaine, transparence et niveaux élevés de précision, de robustesse, de cohérence et de cybersécurité. Il est clair que les systèmes d'IA générative ont un potentiel énorme pour être considérés comme à haut risque, et la conformité de ces systèmes avec les exigences de la loi européenne sur l'IA sera donc un défi.
Prenons l'exemple de l'exigence de transparence, qui stipule que le fonctionnement d'un système d'IA doit être suffisamment transparent pour permettre aux utilisateurs d'interpréter et d'utiliser ses résultats de manière appropriée. Une étude récente portant sur la cohérence du ChatGPT en matière de conseils moraux a conclu qu'il était incohérent et manquait d'un point de vue moral et, plus important encore, qu'il influençait le jugement moral des utilisateurs plus qu'ils ne pouvaient le percevoir, même s'ils étaient conscients de leur interaction avec un système d'IA [1]. ChatGPT a le potentiel de corrompre, et la transparence s'avère insuffisante pour permettre une utilisation responsable de l'IA.
Qu'est-ce qui est suffisant alors ? Nous devons attendre de voir comment l'UE réglementera les problèmes spécifiques posés par l'IA générative. En attendant, les organisations qui utilisent l'IA générative doivent faire la distinction entre les applications exagérées et les applications réalistes et veiller à un déploiement responsable. Elles doivent également se préparer à se conformer à la loi européenne sur l'IA, car le non-respect de cette loi les exposera probablement à de lourdes amendes réglementaires (plus importantes que les amendes du GDPR dans certains cas) ainsi qu'à une atteinte à leur réputation.
Cet article a été rédigé par Aczel Garcia Rios PhD et Rebeka Gadzo.
[1] "ChatGPT's inconsistent moral advice influences users' judgment" S. Krügel, A. Ostermaier, and M. Uhl, Nature, Scientific Reports 13, 4569 (2023). DOI : s41598-023-31341-0