Sans l'IA et l'analyse des données, il est difficile de détecter des modèles de comportements vulnérables et donc de fournir en temps utile un soutien et des solutions appropriées. Toutefois, l'utilisation de l'IA nécessite une réflexion approfondie – la protection des données, les exigences en matière de conduite des activités, ainsi qu'un examen et une remise en question rigoureux et réguliers des résultats sont essentiels pour une utilisation sécurisée des modèles d’IA.
Par ailleurs, les entreprises du secteur sont désormais soumises à une pression sociétale pour définir une raison d’être qui aille au-delà du simple profit commercial. Ce contexte apporte une troisième dimension à l'utilisation de l'IA et des informations sur les clients - l'utilisation éthique des données.
Nous exposons comment l'éthique interagit avec la réglementation et les décisions et compromis à envisager lors de l'utilisation de solutions basées sur l'IA. Nous illustrons via une étude de cas : l’identification et la réponse aux situations de vulnérabilité lors d’un parcours client et les actions et solutions que les établissements peuvent mettre en place pour avoir des solutions d’IA dignes de confiance. Nous concluons en plaidant en faveur de nouvelles orientations réglementaires afin d’éliminer l'incertitude et permettre ainsi aux entreprises d'innover en toute confiance. Notre analyse et réflexions autour de ces différentes questions visent à informer et aider dirigeants, organes de surveillance, et responsables chargés de l'AI à répondre à ces problèmes complexes
Ce rapport s'appuie sur un précédent document sur l'IA et la gestion des risques, dans lequel nous avons exploré la nature dynamique des modèles d'IA et le risque qui en résulte ainsi que les implications en matière de gestion. Nous n'avons pas repris ici les éléments clés du rapport précédent, mais ils restent pertinents. Les défis et les solutions proposées dans ce rapport sont pertinentes pour de nombreuses juridictions, notamment dans l'UE..
Il n'y a pas de consensus sur une définition précise de l'IA. Par "IA" et "systèmes d'IA", nous entendons la théorie et le développement de systèmes informatiques capables d'exécuter des tâches humaines qui requièrent normalement une intelligence humaine. Cela se fait en utilisant diverses techniques telles que l'apprentissage machine, l'apprentissage profond et le traitement du langage naturel. Pour une description détaillée, veuillez consulter notre document sur l'IA et la gestion des risques.
- La réglementation sur la conduite de l'IA et les exigences en matière de protection des données se recouperont de manière significative dans plusieurs domaines ;
- Certaines exigences seront alignées ou complémentaires (par exemple en ce qui concerne la transparence et l'explicabilité). D'autres pourraient nécessiter une évaluation et une interprétation spécifique dès la phase de conception de la solution d'AI - par exemple aspects GDPR ;
- Une approche globale et intégrée de la réglementation et de l'éthique est nécessaire pour garantir de bons résultats pour les clients, la conformité et l'efficacité opérationnelle.
Opens in new window
- Des cadres éthiques solides sont nécessaires pour identifier, évaluer et choisir la bonne ligne de conduite par rapport aux risques, aux opportunités et aux questions morales soulevées par l'utilisation de l'IA ;
- Elles doivent reposer sur une base solide de conformité réglementaire, mais leur but est de guider les organisations lorsque les règles actuelles sont muettes ou sujettes à interprétation ;
- par exemple, la définition de l'équité, ou les compromis entre la vie privée des personnes et la précision/granularité des analyses reposant sur l’IA.
Opens in new window
- Les compétences et les connaissances des équipes de conception, de conformité et de l'IA sur le fonctionnement des modèles d'IA spécifiques à chaque cas sont extrêmement importantes pour examiner, remettre en question et interpréter la réglementation dans l'esprit de la loi, appliquer des jugements éthiques et comprendre les résultats pour les clients ;
- Tester les systèmes d'IA avec un ensemble diversifié de groupes de discussion et de parties prenantes permet de s'assurer qu'ils sont adaptés à leur objectif et qu'ils répondent aux attentes éthiques de la société. Ceci est important car le consensus de la société sur ce qui est acceptable en matière d'IA continue d'évoluer et diffère selon les pays et les cas d'utilisation ;
- En interne, le choix de la bonne ligne de conduite nécessitera pour les entreprises de nourrir une culture ouverte, avec une diversité de points de vue et perspectives.
Opens in new window
L'appétit pour le risque, la gouvernance et la gestion du risque doivent être mis à jour pour permettre à l'entreprise d'innover en utilisant l'IA. Le niveau de gestion des risques et de gouvernance sera fonction du contexte et proportionné au risque que représente le déploiement de la solution d'IA. Ces limites doivent être fixées et comprises clairement dans toute l'entreprise. - Une capacité clé est le développement des compétences et de la formation en matière d'IA pour les fonctions de contrôle, les conseils d'administration et la direction générale, afin de permettre aux différentes parties prenantes de poser les bonnes questions, d'interpréter les exigences en matière d'éthique et de conformité, de comprendre les risques inhérents et de mettre en place les mesures d'atténuation appropriées, y compris en positionnant un jugement humain à chaque étape clé de la solution d'IA et des flux ou processus connexes.
Opens in new window
- Un engagement précoce et proactif avec les autorités de protection des données et de conduite des activités peut aider à résoudre les problèmes de conformité propres à chaque contexte ;
- L'un des moyens d'y parvenir est d'utiliser les pôles d'innovation des autorités de régulation, et les dispositifs « bacs à sable » lorsqu’ils existent.
Opens in new window
- Notre étude de cas souligne que l'interprétation et le respect des exigences de conduites ou de protection des données d'autre part, peut présenter une mise en œuvre réglementaire importante des défis ou des incertitudes pour les entreprises ;
- Les autorités chargées de la conduite et de la protection des données devraient soutenir davantage les entreprises qui souhaitent déployer l'IA et les demandes répondant à un intérêt public (par exemple l'assistance aux clients vulnérables), via des orientations plus précises sur les domaines d'incertitude réglementaire identifiés.
Opens in new window