Sébastien Saurin, Chercheur associé au sein d’HEC, répond aux questions de Richard Eudes, Directeur IA & Data chez Deloitte, pour apporter un éclairage plus académique sur les enjeux d’IA de confiance, d’interprétabilité et de mise en œuvre dans des contextes à fort enjeu.
Sébastien Saurin : Je suis post-doctorant au sein de la Chaire HEC-Deloitte « AI for Business Innovation ». La particularité de ma recherche est d’être à l’interface entre la recherche académique sur l’intelligence artificielle (IA) et ses applications concrètes, en développant des outils qui répondent à des enjeux réels.
Je développe notamment des méthodes visant à renforcer la transparence, la robustesse et la performance des modèles d’IA, afin de permettre l’adoption par les entreprises d’une IA de confiance dans des contextes à fort enjeu.
Concernant mon parcours, j’ai effectué un doctorat en économie sous la direction de Christophe Hurlin (Université d’Orléans, LEO) et Christophe Pérignon (HEC Paris).
Sébastien Saurin : Mes travaux poursuivent deux objectifs principaux : éliminer les biais de discrimination provenant des décisions prises par les algorithmes dans des applications critiques, et améliorer l’interprétabilité de ces décisions. Cette recherche est cruciale pour les entreprises, car aujourd’hui, l’absence de biais et l’interprétabilité des modèles constituent des leviers majeurs pour l’adoption des systèmes d’IA.
Concernant ce premier objectif, nous avons développé plusieurs outils statistiques permettant (i) de détecter les biais de discrimination algorithmique ou fairness, (ii) d’en identifier les diverses sources et (iii) de les corriger, tout en préservant la performance prédictive du modèle sous-jacent. Cette approche permet de lever certains blocages liés à la conformité, tout en réduisant fortement l’exposition aux risques réputationnels associés aux biais.
À la suite de la publication d’un article scientifique1 décrivant notre méthodologie, nous avons contribué à la mise en production de ces outils dans plusieurs grandes banques françaises.
Au-delà de ces enjeux de biais, le manque de transparence des modèles est lui aussi souvent un facteur bloquant clé dans les projets IA. Les algorithmes d’IA sont souvent qualifiés de « boîtes noires » en raison de leur opacité. Afin de pallier ce problème, nous avons développé une méthode permettant d’évaluer l’influence des variables utilisées par les algorithmes sur leurs performances économiques2. Discuter ces résultats avec les experts métier permet de favoriser l’acceptabilité des modèles auprès de ces experts.
Ces outils sont essentiels au développement d’une IA de confiance pour les entreprises. En effet, bien que celles-ci constatent les excellentes performances des algorithmes, leur adoption peut être limitée par leur manque de transparence ainsi que par les effets indésirables qu’ils peuvent produire sur certaines populations. Ces enjeux de biais et de transparence sont également très prégnants dans le cadre des modèles d’IA générative du fait de la difficulté accrue à anticiper, interpréter et maîtriser les contenus qu’ils génèrent.
Sébastien Saurin : Comme vous le savez, le règlement européen sur l’intelligence artificielle (AI Act) adopte une approche fondée sur les risques, en classant notamment certains systèmes d’IA parmi la catégorie dite « à haut risque ». Le credit scoring en fait partie, en raison de son impact direct sur l’accès au financement des individus et des entreprises. En outre, l’AI Act ne se limite pas à un cadre de conformité, mais structure également les décisions d’investissement et de priorisation des usages par les entreprises.
Dans ce cadre, les systèmes d’IA doivent respecter un certain nombre d’exigences, notamment en matière de transparence, de traçabilité, de qualité des données et d’auditabilité. Ces exigences ne portent pas uniquement sur la capacité à expliquer un modèle, mais de plus en plus sur la capacité à démontrer, de manière structurée, que le système est maîtrisé dans son ensemble (données, usages, gouvernance).
Mes travaux ont pour but de répondre à ces exigences réglementaires. Les outils de détection et de correction des biais que nous développons contribuent à répondre aux enjeux d’équité algorithmique imposés par le cadre européen. De même, nos méthodes d’interprétabilité participent à renforcer la transparence et l’auditabilité des modèles, deux dimensions centrales de l’AI Act. Aujourd’hui, les entreprises doivent également déterminer le niveau d’investissement qu’elles souhaitent consacrer à la démonstration de la conformité de leurs systèmes d’IA, en termes de niveau de preuve, de fréquence des contrôles et de profondeur des analyses.
Au-delà du secteur financier, ces enjeux concernent également d’autres applications impliquant des décisions individuelles sensibles, ce qui justifie un niveau élevé d’exigence en matière de transparence et de contrôle. Ces applications comprennent notamment l’analyse automatisée de CV, le traitement des demandes d’aides publiques ou encore l’examen des candidatures dans l’enseignement supérieur. Dans tous ces cas, l’objectif est de garantir que les systèmes d’IA soient à la fois performants et conformes aux exigences réglementaires.
Sébastien Saurin : Nous travaillons dans le cadre de la Chaire avec Christophe Pérignon et une dizaine d’autres experts à la rédaction d’un livre blanc consacré à l’usage de l’IA dans le monde de l’entreprise. Notre objectif est double : adopter une approche à la fois rigoureuse, fondée sur les dernières publications académiques, mais aussi de structurer une grille de lecture des usages de l’IA en entreprise (notamment en termes de performance, de risques et de gouvernance). Ce travail repose sur des cas d’usage concrets, mettant en évidence à la fois les gains de performance liés à l’IA et les risques qu’elle peut générer. Il offre ainsi aux entreprises des éléments structurants pour éclairer leurs choix entre opportunités et risques.
Je contribue également au développement d’un nouveau type d’outils pédagogiques innovants : les « AI & Business Cases ». Ces études de cas présentent des situations réelles d’entreprises ayant déployé des solutions d’IA pour répondre à des enjeux métier, avec un impact économique mesurable.
Elles sont coconstruites par les équipes de la Chaire HEC/Deloitte et des experts issus des entreprises mises en lumière. La valeur apportée par ces études de cas est double. D’une part, grâce à l’emploi de données réalistes et de modélisations statistiques approfondies, ces cas permettent aux étudiants de comprendre à la fois les enjeux techniques et les enjeux managériaux, tout en les aidant à se projeter dans des situations réelles de déploiement de systèmes d’IA (arbitrages, contraintes, interactions avec les experts métiers). Ils permettent également de relier directement performance économique, choix techniques et exigences de gouvernance. D’autre part, elles offrent aux entreprises des retours d’expérience concrets ainsi qu’une évaluation mesurable de l’impact économique.
Sources
1 Hurlin, C., Pérignon, C. et Saurin S. (2026) The Fairness of Credit Scoring Models. Management Science, Volume 72
2 Hué, S., Hurlin, C., Pérignon, C. et Saurin S. (2026) Measuring the Driving Forces of Predictive Performance: Application to Credit Scoring. Management Science, à paraître.