Accéder au contenu principal

Construire un système fiable d’intelligence artificielle

Les clients interagissent de plus en plus avec les entreprises du secteur financier (FS) par le biais de canaux numériques. Pour accompagner cette réduction des interactions humaines, les entreprises s’appuient sur l'Intelligence Artificielle (IA) et l'analyse des données pour mieux comprendre et servir les besoins des clients. La combinaison d'un canal numérique et de l'utilisation de l'IA présente des opportunités mais aussi des risques, notamment en ce qui concerne les questions de gouvernance et de conformité.

 

Prenons le cas de la détection et du suivi des clients vulnérables dans un parcours numérique

 

Sans l'IA et l'analyse des données, il est difficile de détecter des modèles de comportements vulnérables et donc de fournir en temps utile un soutien et des solutions appropriées. Toutefois, l'utilisation de l'IA nécessite une réflexion approfondie – la protection des données, les exigences en matière de conduite des activités, ainsi qu'un examen et une remise en question rigoureux et réguliers des résultats sont essentiels pour une utilisation sécurisée des modèles d’IA.

Par ailleurs, les entreprises du secteur sont désormais soumises à une pression sociétale pour définir une raison d’être qui aille au-delà du simple profit commercial. Ce contexte apporte une troisième dimension à l'utilisation de l'IA et des informations sur les clients - l'utilisation éthique des données.

Dans ce rapport, nous examinons l'alignement et le décalage potentiel entre les exigences réglementaires en matière de conduite des activités et celle relative à la protection de la vie privée

 

Nous exposons comment l'éthique interagit avec la réglementation et les décisions et compromis à envisager lors de l'utilisation de solutions basées sur l'IA. Nous illustrons via une étude de cas : l’identification et la réponse aux situations de vulnérabilité lors d’un parcours client et les actions et solutions que les établissements peuvent mettre en place pour avoir des solutions d’IA dignes de confiance. Nous concluons en plaidant en faveur de nouvelles orientations réglementaires afin d’éliminer l'incertitude et permettre ainsi aux entreprises d'innover en toute confiance. Notre analyse et réflexions autour de ces différentes questions visent à informer et aider dirigeants, organes de surveillance, et responsables chargés de l'AI à répondre à ces problèmes complexes

Ce rapport s'appuie sur un précédent document sur l'IA et la gestion des risques, dans lequel nous avons exploré la nature dynamique des modèles d'IA et le risque qui en résulte ainsi que les implications en matière de gestion. Nous n'avons pas repris ici les éléments clés du rapport précédent, mais ils restent pertinents. Les défis et les solutions proposées dans ce rapport sont pertinentes pour de nombreuses juridictions, notamment dans l'UE..

Qu'entend-on par IA et systèmes d'IA ?

 

Il n'y a pas de consensus sur une définition précise de l'IA. Par "IA" et "systèmes d'IA", nous entendons la théorie et le développement de systèmes informatiques capables d'exécuter des tâches humaines qui requièrent normalement une intelligence humaine. Cela se fait en utilisant diverses techniques telles que l'apprentissage machine, l'apprentissage profond et le traitement du langage naturel. Pour une description détaillée, veuillez consulter notre document sur l'IA et la gestion des risques.

Construire une IA digne de confiance : les points clés

Une approche globale et intégrée en matière de conduite, de protection des données et d'éthique

- La réglementation sur la conduite de l'IA et les exigences en matière de protection des données se recouperont de manière significative dans plusieurs domaines ;
- Certaines exigences seront alignées ou complémentaires (par exemple en ce qui concerne la transparence et l'explicabilité). D'autres pourraient nécessiter une évaluation et une interprétation spécifique dès la phase de conception de la solution d'AI - par exemple aspects GDPR ;
- Une approche globale et intégrée de la réglementation et de l'éthique est nécessaire pour garantir de bons résultats pour les clients, la conformité et l'efficacité opérationnelle.

Un cadre éthique fondé sur la conformité mais reflétant un objectif social plus large

- Des cadres éthiques solides sont nécessaires pour identifier, évaluer et choisir la bonne ligne de conduite par rapport aux risques, aux opportunités et aux questions morales soulevées par l'utilisation de l'IA ;
- Elles doivent reposer sur une base solide de conformité réglementaire, mais leur but est de guider les organisations lorsque les règles actuelles sont muettes ou sujettes à interprétation ;
- par exemple, la définition de l'équité, ou les compromis entre la vie privée des personnes et la précision/granularité des analyses reposant sur l’IA.

Diversité dans la conception, la revue et la remise en question

- Les compétences et les connaissances des équipes de conception, de conformité et de l'IA sur le fonctionnement des modèles d'IA spécifiques à chaque cas sont extrêmement importantes pour examiner, remettre en question et interpréter la réglementation dans l'esprit de la loi, appliquer des jugements éthiques et comprendre les résultats pour les clients ;
- Tester les systèmes d'IA avec un ensemble diversifié de groupes de discussion et de parties prenantes permet de s'assurer qu'ils sont adaptés à leur objectif et qu'ils répondent aux attentes éthiques de la société. Ceci est important car le consensus de la société sur ce qui est acceptable en matière d'IA continue d'évoluer et diffère selon les pays et les cas d'utilisation ;
- En interne, le choix de la bonne ligne de conduite nécessitera pour les entreprises de nourrir une culture ouverte, avec une diversité de points de vue et perspectives.

Au niveau des établissements des capacités adaptées pour soutenir une AI digne de confiance

L'appétit pour le risque, la gouvernance et la gestion du risque doivent être mis à jour pour permettre à l'entreprise d'innover en utilisant l'IA. Le niveau de gestion des risques et de gouvernance sera fonction du contexte et proportionné au risque que représente le déploiement de la solution d'IA. Ces limites doivent être fixées et comprises clairement dans toute l'entreprise. - Une capacité clé est le développement des compétences et de la formation en matière d'IA pour les fonctions de contrôle, les conseils d'administration et la direction générale, afin de permettre aux différentes parties prenantes de poser les bonnes questions, d'interpréter les exigences en matière d'éthique et de conformité, de comprendre les risques inhérents et de mettre en place les mesures d'atténuation appropriées, y compris en positionnant un jugement humain à chaque étape clé de la solution d'IA et des flux ou processus connexes.

Un engagement réglementaire proactif

- Un engagement précoce et proactif avec les autorités de protection des données et de conduite des activités peut aider à résoudre les problèmes de conformité propres à chaque contexte ;
- L'un des moyens d'y parvenir est d'utiliser les pôles d'innovation des autorités de régulation, et les dispositifs « bacs à sable » lorsqu’ils existent.

Besoin de plus d'orientations réglementaires

- Notre étude de cas souligne que l'interprétation et le respect des exigences de conduites ou de protection des données d'autre part, peut présenter une mise en œuvre réglementaire importante des défis ou des incertitudes pour les entreprises ;
- Les autorités chargées de la conduite et de la protection des données devraient soutenir davantage les entreprises qui souhaitent déployer l'IA et les demandes répondant à un intérêt public (par exemple l'assistance aux clients vulnérables), via des orientations plus précises sur les domaines d'incertitude réglementaire identifiés.

Avez-vous trouvé cela utile ?

Merci pour votre retour

Si vous souhaitez nous aider à améliorer Deloitte.com, veuillez remplir ce formulaire de 3 minutes