Accéder au contenu principal

Adopter une IA de confiance : comment concilier performance, transparence et conformité réglementaire

Sébastien Saurin, Chercheur associé au sein d’HEC, répond aux questions de Richard Eudes, Directeur IA & Data chez Deloitte, pour apporter un éclairage plus académique sur les enjeux d’IA de confiance, d’interprétabilité et de mise en œuvre dans des contextes à fort enjeu. 

En résumé

  • L’IA de confiance est une condition d’adoption, notamment dans les contextes à fort enjeu (finance, RH, décisions individuelles), où biais et opacité peuvent bloquer les déploiements.  
  • Les entreprises doivent dépasser la performance technique pour intégrer des exigences de transparence, d’équité et de maîtrise des risques.  
  • L’AI Act transforme la question de l’IA en enjeu de gouvernance et de preuve, en demandant de démontrer que les systèmes sont maîtrisés dans leur ensemble (données, modèles, usages).  
  • La GenAI renforce ces enjeux, en rendant les outputs plus difficiles à anticiper et à contrôler, ce qui accentue les besoins en méthodes d’évaluation et de supervision
Richard Eudes

Directeur IA & Data chez Deloitte France

Sébastien Saurin

Chercheur associé chez HEC Paris

Richard Eudes : Pour commencer, pourriez-vous vous présenter et revenir en quelques mots sur votre parcours ? 

Sébastien Saurin : Je suis post-doctorant au sein de la Chaire HEC-Deloitte « AI for Business Innovation ». La particularité de ma recherche est d’être à l’interface entre la recherche académique sur l’intelligence artificielle (IA) et ses applications concrètes, en développant des outils qui répondent à des enjeux réels.

Je développe notamment des méthodes visant à renforcer la transparence, la robustesse et la performance des modèles d’IA, afin de permettre l’adoption par les entreprises d’une IA de confiance dans des contextes à fort enjeu.

Concernant mon parcours, j’ai effectué un doctorat en économie sous la direction de Christophe Hurlin (Université d’Orléans, LEO) et Christophe Pérignon (HEC Paris).

Richard Eudes : Pouvez-vous décrire vos travaux concernant l’IA de confiance et l’importance qu’elle revêt d’après vous pour les entreprises ?

Sébastien Saurin : Mes travaux poursuivent deux objectifs principaux : éliminer les biais de discrimination provenant des décisions prises par les algorithmes dans des applications critiques, et améliorer l’interprétabilité de ces décisions. Cette recherche est cruciale pour les entreprises, car aujourd’hui, l’absence de biais et l’interprétabilité des modèles constituent des leviers majeurs pour l’adoption des systèmes d’IA.

Concernant ce premier objectif, nous avons développé plusieurs outils statistiques permettant (i) de détecter les biais de discrimination algorithmique ou fairness, (ii) d’en identifier les diverses sources et (iii) de les corriger, tout en préservant la performance prédictive du modèle sous-jacent. Cette approche permet de lever certains blocages liés à la conformité, tout en réduisant fortement l’exposition aux risques réputationnels associés aux biais.

À la suite de la publication d’un article scientifique1 décrivant notre méthodologie, nous avons contribué à la mise en production de ces outils dans plusieurs grandes banques françaises.

Au-delà de ces enjeux de biais, le manque de transparence des modèles est lui aussi souvent un facteur bloquant clé dans les projets IA. Les algorithmes d’IA sont souvent qualifiés de « boîtes noires » en raison de leur opacité. Afin de pallier ce problème, nous avons développé une méthode permettant d’évaluer l’influence des variables utilisées par les algorithmes sur leurs performances économiques2. Discuter ces résultats avec les experts métier permet de favoriser l’acceptabilité des modèles auprès de ces experts.
Ces outils sont essentiels au développement d’une IA de confiance pour les entreprises. En effet, bien que celles-ci constatent les excellentes performances des algorithmes, leur adoption peut être limitée par leur manque de transparence ainsi que par les effets indésirables qu’ils peuvent produire sur certaines populations. Ces enjeux de biais et de transparence sont également très prégnants dans le cadre des modèles d’IA générative du fait de la difficulté accrue à anticiper, interpréter et maîtriser les contenus qu’ils génèrent.

Richard Eudes : Comment vos travaux s’inscrivent-ils dans le cadre de la règlementation européenne sur l’IA ?

Sébastien Saurin : Comme vous le savez, le règlement européen sur l’intelligence artificielle (AI Act) adopte une approche fondée sur les risques, en classant notamment certains systèmes d’IA parmi la catégorie dite « à haut risque ». Le credit scoring en fait partie, en raison de son impact direct sur l’accès au financement des individus et des entreprises. En outre, l’AI Act ne se limite pas à un cadre de conformité, mais structure également les décisions d’investissement et de priorisation des usages par les entreprises.

Dans ce cadre, les systèmes d’IA doivent respecter un certain nombre d’exigences, notamment en matière de transparence, de traçabilité, de qualité des données et d’auditabilité. Ces exigences ne portent pas uniquement sur la capacité à expliquer un modèle, mais de plus en plus sur la capacité à démontrer, de manière structurée, que le système est maîtrisé dans son ensemble (données, usages, gouvernance).

Mes travaux ont pour but de répondre à ces exigences réglementaires. Les outils de détection et de correction des biais que nous développons contribuent à répondre aux enjeux d’équité algorithmique imposés par le cadre européen. De même, nos méthodes d’interprétabilité participent à renforcer la transparence et l’auditabilité des modèles, deux dimensions centrales de l’AI Act. Aujourd’hui, les entreprises doivent également déterminer le niveau d’investissement qu’elles souhaitent consacrer à la démonstration de la conformité de leurs systèmes d’IA, en termes de niveau de preuve, de fréquence des contrôles et de profondeur des analyses.

Au-delà du secteur financier, ces enjeux concernent également d’autres applications impliquant des décisions individuelles sensibles, ce qui justifie un niveau élevé d’exigence en matière de transparence et de contrôle. Ces applications comprennent notamment l’analyse automatisée de CV, le traitement des demandes d’aides publiques ou encore l’examen des candidatures dans l’enseignement supérieur. Dans tous ces cas, l’objectif est de garantir que les systèmes d’IA soient à la fois performants et conformes aux exigences réglementaires.

Richard Eudes : À quels projets de la Chaire HEC-Deloitte « AI for Business Innovation » contribuez-vous à l’heure actuelle ?

Sébastien Saurin : Nous travaillons dans le cadre de la Chaire avec Christophe Pérignon et une dizaine d’autres experts à la rédaction d’un livre blanc consacré à l’usage de l’IA dans le monde de l’entreprise. Notre objectif est double : adopter une approche à la fois rigoureuse, fondée sur les dernières publications académiques, mais aussi de structurer une grille de lecture des usages de l’IA en entreprise (notamment en termes de performance, de risques et de gouvernance). Ce travail repose sur des cas d’usage concrets, mettant en évidence à la fois les gains de performance liés à l’IA et les risques qu’elle peut générer. Il offre ainsi aux entreprises des éléments structurants pour éclairer leurs choix entre opportunités et risques.

Je contribue également au développement d’un nouveau type d’outils pédagogiques innovants : les « AI & Business Cases ». Ces études de cas présentent des situations réelles d’entreprises ayant déployé des solutions d’IA pour répondre à des enjeux métier, avec un impact économique mesurable.

Elles sont coconstruites par les équipes de la Chaire HEC/Deloitte et des experts issus des entreprises mises en lumière. La valeur apportée par ces études de cas est double. D’une part, grâce à l’emploi de données réalistes et de modélisations statistiques approfondies, ces cas permettent aux étudiants de comprendre à la fois les enjeux techniques et les enjeux managériaux, tout en les aidant à se projeter dans des situations réelles de déploiement de systèmes d’IA (arbitrages, contraintes, interactions avec les experts métiers). Ils permettent également de relier directement performance économique, choix techniques et exigences de gouvernance. D’autre part, elles offrent aux entreprises des retours d’expérience concrets ainsi qu’une évaluation mesurable de l’impact économique.

Sources

1 Hurlin, C., Pérignon, C. et Saurin S. (2026) The Fairness of Credit Scoring Models. Management Science, Volume 72 
2 Hué, S., Hurlin, C., Pérignon, C. et Saurin S. (2026) Measuring the Driving Forces of Predictive Performance: Application to Credit Scoring. Management Science, à paraître.

Conseil en Intelligence Artificielle (IA)

Vous souhaitez passer de la réflexion à la mise en œuvre et industrialiser vos solutions d’IA en confiance ?

Questions fréquentes 

Qu’est-ce que l’IA de confiance ?

L’IA de confiance désigne des systèmes d’intelligence artificielle conçus pour être transparents, robustes, équitables et maîtrisés dans leur fonctionnement. Elle vise notamment à garantir l’absence de biais discriminatoires, à améliorer l’interprétabilité des modèles et à assurer un haut niveau de performance. Pour les entreprises, il s’agit de pouvoir déployer des solutions d’IA fiables, compréhensibles par les experts métier et conformes aux exigences réglementaires, notamment dans des contextes à fort enjeu.

Pourquoi l’interprétabilité des modèles est-elle un enjeu clé pour les entreprises ?

L’interprétabilité est essentielle car les modèles d’IA sont souvent perçus comme des « boîtes noires ». Sans compréhension claire de leur fonctionnement, leur adoption peut être freinée. Pouvoir expliquer les décisions d’un modèle permet :

  • De renforcer la confiance des utilisateurs et des experts métier
  • De faciliter la validation des résultats
  • De répondre aux exigences réglementaires en matière de transparence
  • Et d’identifier d’éventuels biais ou anomalies

Elle joue donc un rôle déterminant dans l’acceptabilité et le déploiement opérationnel des systèmes d’IA.

Quels sont les principaux risques liés à l’utilisation de l’IA en entreprise ? 

L’utilisation de l’IA expose les entreprises à plusieurs types de risques : 

  • Risque de biais et de discrimination : certains algorithmes peuvent produire des décisions injustes pour certaines populations.  
  • Manque de transparence : difficulté à comprendre et expliquer les décisions prises.  
  • Risque réputationnel : des décisions biaisées ou incomprises peuvent nuire à l’image de l’entreprise.  
  • Risque réglementaire : non-conformité aux exigences légales, notamment en Europe.  
  • Perte de maîtrise des systèmes : difficulté à contrôler ou anticiper les effets des modèles, en particulier dans des applications sensibles.  

En quoi l’AI Act change-t-il la manière de déployer des systèmes d’IA ?

L’AI Act introduit une approche fondée sur les risques, avec des exigences renforcées pour les systèmes dits « à haut risque ». Il impose aux entreprises de structurer le déploiement de leurs solutions autour de plusieurs dimensions :

  • Transparence et explicabilité des modèles
  • Qualité et traçabilité des données
  • Auditabilité des systèmes
  • Gouvernance globale (processus, contrôles, documentation)

Au-delà de la simple conformité, ce cadre réglementaire influence les décisions d’investissement et oblige les entreprises à démontrer, de manière structurée, qu’elles maîtrisent leurs systèmes d’IA tout au long de leur cycle de vie.

Pourquoi la GenAI pose-t-elle de nouveaux défis en matière d’IA de confiance ?

L’IA générative (GenAI) accentue les défis existants en matière d’IA de confiance. Ces modèles sont plus difficiles à interpréter et à contrôler, et leurs outputs sont souvent imprévisibles. Cela entraîne une difficulté accrue à anticiper et expliquer les résultats produits, un risque plus élevé de génération de contenus biaisés ou inappropriés, une complexité renforcée pour garantir la conformité réglementaire, et un besoin accru de mécanismes de contrôle et de validation.
Ces spécificités rendent encore plus crucial le développement d’outils de transparence, de gestion des biais et de gouvernance adaptés à ces nouvelles technologies.

Avez-vous trouvé cela utile ?

Merci pour votre retour