L’intelligence artificielle s’ancre de plus en plus dans le quotidien en Suisse. Dans le domaine de l’assurance cependant, elle est soumise à conditions. Notre enquête menée auprès de 1’291 assurés révèle la voie à suivre : les clients sont disposés à adopter l’IA à condition qu’elle serve à expliquer plutôt qu’à décider, que les humains demeurent responsables et que les décisions soient transparentes. Il ne s’agit pas d’obstacles à l’adoption de l’IA, mais des conditions qui la rendent légitime.
L’intelligence artificielle a largement dépassé le stade des premiers utilisateurs. Dans l’enquête de Deloitte, 71% des personnes interrogées déclarent déjà utiliser l’IA au moins une fois par mois, et environ 85% pensent que les assureurs en Suisse y ont déjà recours. Néanmoins, cette familiarité ne signifie pas une approbation automatique. Seules 18% de ces personnes ont une vision positive de l’IA dans le secteur de l’assurance, tandis que 36% conservent une approche critique et nombre d’entre elles sont impartiales. Cet écart est significatif.
L’enquête laisse également entendre que le potentiel de l’IA pour le secteur ne réside pas principalement à son caractère innovant. L’interaction entre la clientèle et les assureurs se fait encore en grande partie par les canaux traditionnels tels que le courrier électronique et le téléphone. Dans ce contexte, la tâche stratégique ne se cantonne pas à ajouter plus de technologie, mais à améliorer les parcours que les clients utilisent déjà, et ce d’une manière compréhensible et clairement bénéfique.
Quand l’IA exerce une fonction d’assistante, le soutien est à son maximum. Environ 62% des personnes interrogées acceptent le recours à l’IA pour traduire le libellé des polices d’assurance dans un langage plus simple et pour mettre en avant ce qui est couvert et ce qui ne l’est pas. Près de 58% sont favorables à des conseils générés par l’IA pour aider à prévenir des pertes. Environ 57% acceptent le recours à l’IA pour identifier des schémas suspects dans les déclarations de sinistres et identifier des cas pour une analyse poussée.
Les clients sont donc réceptifs lorsque l’IA joue un rôle explicatif, sert de guide, assiste ou met en valeur. Ils sont beaucoup plus à l’aise avec l’IA lorsqu’elle sert à réduire la complexité que lorsqu’elle détermine les résultats. Pour les assureurs, il s’agit d’un signal de leadership important. La voie la plus rapide vers une adoption crédible de l’IA consiste à se concentrer tout d’abord sur les cas d’utilisation qui améliorent la compréhension, la qualité du service et la prévention.
Attentes de la clientèle et exigences en matière de transparence
supposent que les assureurs utilisent déjà l’IA
exigent une intervention humaine dans la prise de décisions
veulent de la transparence concernant le recours à l’IA
Le tableau change en effet lorsque l’IA passe du rôle d’assistante à celui de décideur. Une nette majorité (61%) s’oppose à l’idée que l’IA devrait décider de l’acceptation ou du rejet d’une demande. Environ 41% rejettent la classification des risques et la fixation des primes par l’IA. Environ 37% refusent l’utilisation des données de conduite pour influencer les primes ou les réductions.
Cela ne doit pas être interprété comme un rejet global de l’automatisation dans son ensemble mais plutôt comme une opposition à une automatisation opaque à fort impact, dépourvue de responsabilité humaine clairement identifiable. Plus de la moitié des sondés (51%) pensent que l’IA dans l’assurance peut accentuer le risque de décisions injustes, et 86% déclarent que les décisions importantes doivent, pour finir, être prises par des humains. En ce qui concerne la souscription, la tarification et les sinistres, l’intervention d’un humain dans la boucle n’est donc pas seulement une préférence en matière de gouvernance. C’est une condition de légitimité aux yeux des clients.
Les clients ne veulent pas seulement que l’IA soit bien gouvernée en arrière-plan. Ils veulent aussi faire l’expérience directe de cette gouvernance. Environ 85% souhaitent être informés de l’utilisation de l’IA. Trois conditions sont particulièrement importantes pour une acceptation plus large : 73% réclament un contrôle humain dans les cas critiques, 67% exigent une communication transparente sur l’utilisation de l’IA, et 59% demandent des procédures d’objection ou de recours simples.
Cela a des implications directes pour les équipes de direction et les conseils d’administration. La gouvernance des systèmes de l’IA ne peut pas se limiter à un cadre de contrôle interne que les clients ne voient jamais. Elle a besoin d’une formulation destinée à la clientèle : une divulgation claire, des explications compréhensibles, une responsabilité identifiable et une voie crédible pour contester les résultats lorsque les enjeux sont élevés.
L’enquête révèle une volonté pragmatique de partager des données, mais uniquement lorsque l’avantage est évident. Environ 56% des personnes interrogées seraient disposées à partager des photos ou des reçus dans le cadre d’un sinistre. En revanche, la volonté diminue sensiblement lorsque les données deviennent plus personnelles ou lorsque leur utilisation future est moins claire, notamment en ce qui concerne les données relatives à la santé ou à la conduite.
Les clients ne rejettent pas a priori l’assurance basée sur les données. Ils ont plutôt besoin de proportionnalité, d’objectifs clairs et d’un avantage direct pour la clientèle. Les assureurs devraient donc formuler des propositions de données axées sur un avantage tangible pour le client, et non sur des possibilités techniques. Plus l’utilisation des données est déterminante ou sensible, plus les arguments en faveur de la transparence et de la modération sont forts.
Au plan stratégique, la meilleure conclusion possible est que la confiance dans l’utilisation responsable de l’IA reste limitée dans le paysage assurantiel. Dans ce contexte, seuls 17% des sondés font confiance aux assureurs, 14% aux autorités de surveillance et 13% aux fournisseurs de technologie. Aucune partie prenante ne peut partir du principe que les autres lui feront automatiquement confiance.
Pour les assureurs, cela représente à la fois un défi et une opportunité. La confiance ne peut pas être établie par le biais de la réglementation ou être déléguée à des partenaires technologiques. Elle doit en revanche être instaurée au moyen de choix cohérents en matière de conception, de communication, de gouvernance et de traitement de la clientèle. En ce sens, l’IA dans le domaine de l’assurance ne se limite pas à un programme technologique. Elle représente également un programme de responsabilité.
Les implications sont claires pour les conseils d’administration et les équipes dirigeantes des assureurs suisses : l’IA devrait d’abord être calibrée dans des domaines où elle explique, où elle soutient et aide à éviter des problèmes, avant de servir à prendre des décisions. La responsabilité humaine doit rester explicite dans la souscription, la tarification et les sinistres. La transparence doit être intégrée dans le parcours du client, et non pas ajoutée a posteriori. Les données personnelles doivent être utilisées uniquement si l’objectif et les avantages pour le client sont clairs. De plus, la confiance doit être traitée comme un atout stratégique, avec un engagement visible des dirigeants.
L’enquête n’a pas pour but de mettre en garde contre l’IA. Il s’agit plutôt d’un signal clair sur les conditions dans lesquelles l’IA sera acceptée au sein de l’assurance suisse. Les clients reconnaissent l’opportunité offerte par l’IA. Mais ils attendent aussi transparence, équité et contrôle. Les assureurs qui prennent ces attentes au sérieux peuvent faire plus que déployer l’IA de manière responsable : ils peuvent renforcer la confiance des assurés, améliorer la portée de l’IA et en faire un avantage concurrentiel permanent.
Enquête Deloitte « Insurance and AI 2026 », Suisse, n=1 291 personnes assurées âgées de 18 à 79 ans. Le texte de l’article est conforme au message officiel du communiqué de presse et reflète les résultats de l’enquête.
Nous remercions Finn Wagner, Norbert Grimm et Rebecca Roj pour leur précieuse contribution à ce rapport.