Accéder au contenu principal

Trustworthy AI - Intégrer

Une fois les concepts éprouvés et les “Minimum Viable Product” (MVP), dévelopés, la solution est mise en production. 

Cela entraîne de nouvelles considérations : fiabilité de la disponibilité, équilibrage de la charge et évolutivité, interfaces de données et compatibilité avec d'autres systèmes de l'écosystème, défenses contre les cyberattaques. Tout doit être très performant et suffisamment résilient pour résister aux contraintes et aux scénarios opérationnels.

Il est vital pour les organisations de s'assurer que leurs modèles d'IA ne soient pas performant et fiables uniquement en laboratoire, mais qu'ils puissent également être fiables une fois en production et industrialisés.

Le "Trustworthy AI Framework" de Deloitte fournit un guide utile aux entreprises pour naviguer dans cette étape du cycle de vie, en s'appuyant sur l'expérience acquise lors des étapes précédentes.

Nos use cases en fonction des stratégies adoptées

Défi

 

Un service de police utilise l'IA pour prédire l'activité criminelle dans les quartiers dont il a la responsabilité. Les agents prévoient d'intensifier les patrouilles dans les zones où l’IA prédit les taux de criminalité les plus élevés. Ces prédictions sont conçues pour aider le service de police à utiliser plus efficacement et de façon plus pertinente ses ressources.

Cependant, peu de temps après le lancement, un cercle vicieux s’est mis en place, causé par un biais auto-entretenu et involontairement intégré dans la solution. Lorsque davantage d'agents sont envoyés en patrouille dans un quartier particulier plutôt que dans un autre - bien que les deux aient un taux de criminalité de base similaire - la répartition de “points de contact” est déséquilibrée.

L'intensification des patrouilles entraîne un plus grand nombre d'arrestations et de “points de contact” que dans d'autres quartiers similaires. Le système d'IA n'est absolument pas conscient de cette faille de sélection, associant un plus grand nombre de “points de contact” à un plus grand danger.

 

Solution

 

Afin de pouvoir améliorer le système d’IA déjà opérationnel grâce à une collecte continue de données, nos équipes aident le service de police à mettre en place des mécanismes de contrôle pour vérifier que le système fonctionne sans erreurs, notamment en assurant des distributions d'échantillonnage égales et en évitant les biais de sélection.

Si la précision du modèle dérive, le personnel de la police peut réévaluer les données et interrompre la boucle de rétroaction qui sera alors biaisée.

 

Résultat

 

Grâce à une meilleure compréhension du fonctionnement de ce système d’IA, les policiers peuvent l'utiliser comme prévu et atteindre leurs deux principaux objectifs : maximiser la sécurité dans tous les quartiers qu'ils parcourent et répartir efficacement leurs ressources.

Le système d'IA est doté d'un mécanisme intégré qui détecte les disparités potentielles entre les quartiers et formule automatiquement des recommandations sur la manière de les résoudre. Les policiers ont ainsi le choix d'adapter la manière dont ils répartissent les patrouilles et ont amplement l'occasion d'améliorer l'IA à l'aide de nouvelles données.

Défi

 

Une chaîne de magasins de bricolage a lancé un nouveau système d'IA pour prédire plus précisément les chiffres de vente de ses produits. Cependant, les chiffres de vente varient selon les magasins en raison de la démographie, de la proximité des centres villes et d'autres différences régionales.

Le détaillant doit veiller à ne pas s'appuyer sur les données d'un seul sous-ensemble de magasins pour entraîner son modèle d'IA. Sinon, le modèle ne parviendrait pas à se généraliser et le déploiement à l'échelle nationale ne fonctionnerait que dans les régions présentant des caractéristiques fortement similaires.

L’implémentation d’un tel système est d’autant plus compliquée dans un contexte informatique complexe et ancien.

 

Solution

 

Notre équipe d’experts déploie le modèle d'IA et le flux de données correspondant dans l'architecture existante, en s'assurant que les données sélectionnées pour l’apprentissage sont représentatives des données auxquelles l'application sera confrontée en production.

Cela permet d'améliorer la précision des décisions du modèle d'IA avec les fonctionnalités sélectionnées, tant au départ qu'au fil du temps en améliorant la résilience aux changements potentiels des données. Parallèlement, nos experts s’assurent de la compatibilité et connectivité du modèle avec les systèmes d’informations périphériques.

Nous fournissons une documentation suffisante de tous les contrôles effectués afin d'orienter les tests et les mises à jour futures. Avant le déploiement, nous effectuons de nombreux tests sur le modèle lui-même, qui est désormais intégré à l'infrastructure informatique globale.

 

Résultat

 

Grâce à nos tests approfondis et à nos ensembles de données représentatives, l’entreprise dispose d'un modèle d'IA fiable et peut compter sur des prévisions plus précises pour ses futures ventes.

Défi

 

Avec l'introduction du règlement général sur la protection des données (RGPD), la conscience de la confidentialité des données s'est considérablement accrue. Beaucoup considèrent la vie privée comme un droit humain inaliénable.
Cela est particulièrement pertinent pour le secteur des soins de santé, où les données sensibles des patients doivent être traitées et stockées en toute sécurité. Les informations personnelles fournies à un chatbot de diagnostic sur le site web d'un hôpital en sont un exemple.

Les technologies d'informatique dématérialisée ajoutent une couche supplémentaire de complexité et font souvent l'objet de la plus grande couverture médiatique, mais les hôpitaux doivent veiller à ce que ces informations très personnelles soient protégées des regards non autorisés du personnel hospitalier ou des cyber-espions.

 

Solution

 

Grâce au cryptage (côté client ou côté serveur), à l'anonymisation et à la gestion des identités et des accès (AIM), Deloitte protège les informations sensibles et personnellement identifiables (PII) de l'hôpital, conformément au RGPD. Cela signifie que tous les flux entrants de données ainsi que les flux sortants sont sous surveillance constante et que la confidentialité des patients est garantie.

 

Résultat

 

L'hôpital peut offrir à ses patients des services qui exploitent la valeur de leurs données pour leur propre bénéfice, tout en s'assurant qu'elles sont protégées contre tout accès non autorisé.

Défi

 

Une compagnie d'assurance maladie est sur le point de mettre en service un système d'IA conçu pour offrir une meilleure couverture des risques à ses patients. L'assureur a l'intention de le déployer au sein de l'infrastructure Cloud d'un fournisseur tiers, en tirant parti de son pare-feu avancé et d'autres mécanismes de sécurité intégrés.

La compagnie d'assurance veut s'assurer que le système et son infrastructure informatique ne sont pas vulnérables aux cybermenaces qui pourraient permettre la mise en œuvre d’une attaque par déni de service (DoS) et d'arrêter le système ou d'utiliser des logiciels malveillants pour voler des données sensibles ou encore manipuler le système d'IA.

 

Solution

 

Deloitte met en œuvre un système conçu pour assurer une gestion sécurisée des identités et des accès Cloud. Nous vérifions également les configurations utilisées dans les services et les opérations de l'entreprise pour détecter des potentielles erreurs. Une équipe d’experts en cyberattaque recherche les potentielles vulnérabilités lors des tests de pénétration et diverses méthodes de piratage, par exemple par l’introduction de données corrompues et les attaques DoS.

Nous assurons également la protection de l'environnement Cloud grâce à un centre d'opérations de sécurité fonctionnant 24 heures sur 24 et 7 jours sur 7, combiné à des services de renseignement sur les menaces.

 

Résultat

 

La compagnie d'assurance maladie peut affirmer de manière crédible à ses assurés que sa solution Cloud est bien protégée contre les cyberattaques.

Défi

 

Une banque conçoit un modèle de risque basé sur l'IA pour évaluer la solvabilité des demandeurs de prêt. Etant donné que la banque se considère comme un prêteur responsable et une institution financière axée sur le client, elle souhaite expliquer le processus de prise de décision de manière transparente pour les clients.

 

Solution

 

Deloitte apporte un soutien important au plan stratégique de la banque visant à offrir une expérience client répondant à la fois aux besoins fonctionnels et aux standards élevés que les clients attendent de l'institution.

Nous mettons en œuvre une boucle de rétroaction vers les clients qui rend le processus de prise de décision plus transparent et fournit un accès instantané aux facteurs de décision pertinents. Si les clients signalent une expérience négative, la banque peut utiliser la boucle de rétroaction intégrée pour établir un contact direct avec le membre du personnel responsable.

 

Résultat

 

La banque a mis en place un système de contrôle à l'échelle de l'entreprise pour garantir le fonctionnement sans erreur de tous les processus et un système de surveillance de l'IA pour s'assurer que toutes les décisions sont transparentes et documentées. Pour des raisons éthiques, la banque informera également les demandeurs de prêts que leurs demandes ont été traitées à l'aide d'un système utilisant l'IA, pour une relation de confiance.

Défi

 

Une compagnie d'assurance constate une augmentation des plaintes de la part de certains groupes de clients. Les clients signalent en particulier que leurs demandes d'indemnisation pour des mini-fourgonnettes sont automatiquement rejetées, et ce, sans explication.

Le service client investit du temps et des efforts dans une enquête plus approfondie sur ces rejets automatiques afin de fournir une réponse plus construite aux clients.

 

Solution

 

LUCID [ML], la boite à outils d’IA développée par nos équipes, permet aux entreprises d'afficher le processus décisionnel du système d'IA de manière intuitive, adaptée aux profils techniques ou non des collaborateurs. Grâce à l’intégration de cette boite à outils d’IA, les clients disposent, dans l'interface utilisateur de l’assureur, un champ dédié qui offre de manière proactive un aperçu de la justification du refus d'un sinistre.

Cette fonctionnalité est d'abord testée en interne avec les collaborateurs du service client afin de s'assurer que l'application IA sous-jacente de règlement des sinistres fonctionne correctement, puis elle est intégrée au portail Web destiné aux clients. Les demandeurs peuvent maintenant voir par eux-mêmes pourquoi leurs demandes ont été rejetées.

 

Résultat

 

L'ajout d'un champ expliquant les raisons d’une non prise en charge d’un sinistre dans le portail Web de l’assureur augmente la satisfaction des clients. Une plus grande transparence dans le processus de réclamation et la disponibilité instantanée des raisons des refus des demandes améliorent la crédibilité de l'assureur.

Les assurés disposent désormais d'informations de meilleure qualité dans un temps plus court. La compagnie augmente ainsi l’efficacité de son service client.

Agissez maintenant !

Lorsqu'il s'agit d'intégrer un modèle d'IA dans l'infrastructure existante de l'entreprise, vous devez prouver que l'application d'IA est digne de confiance. Nous fournissons un soutien pour le déploiement sûr de votre système d'IA et une connexion sécurisée avec le monde extérieur.

Notre objectif principal est de protéger votre système contre les attaques potentielles qui peuvent arriver de l’extérieur et d'assurer sa continuité pérenne.