Accéder au contenu principal

En matière d’intelligence artificielle, les assurés suisses attendent transparence et contrôle

Zurich, le 1er avril 2026

L’intelligence artificielle (IA) est d’ores et déjà ancrée dans le quotidien en Suisse. Si l’on examine l’utilisation de l’IA dans le secteur des assurances, le constat est néanmoins en demi-teinte : un peu plus d’un tiers des assurés affichent une attitude prudente vis-à-vis des applications d’IA, tandis qu’un peu moins d’un cinquième y voient un potentiel d’amélioration des services. La récente enquête de Deloitte montre que la transparence concernant l’utilisation de l’IA ainsi que le contrôle humain sont des critères décisifs pour une adoption à grande échelle.

L’enquête menée début 2026 par la société d’audit et de conseil Deloitte auprès de 1’291 assurés suisses fait ressortir le constat suivant : si 71% de la population utilisent l’IA au moins une fois par mois, le secteur des assurances affiche une attitude plus prudente en la matière. Ainsi, 36% des sondés se montrent critiques, tandis que 18% affichent une attitude positive vis-à-vis de l’utilisation de l’IA.

« Le sondage met en évidence un contraste notable », déclare Marcel Thom, responsable Assurances chez Deloitte Suisse. « Pour une grande partie de la population, l’IA fait partie du quotidien. Le milieu de l’assurance est quant à lui plus contrasté : les clients attachent en effet une grande importance à l’équité, à la transparence et au contrôle humain. C’est un signal clair pour le secteur sur les moyens à mettre en œuvre pour renforcer la confiance dans l’utilisation de l’IA. »

Le contrôle humain demeure un critère essentiel

L’étude fait ressortir des contrastes marqués : 14% des personnes interrogées utilisent l’IA quotidiennement, tandis que 85% pensent que les assureurs y ont déjà recours. Dans le même temps, près de la moitié (51%) des sondés craignent que l’IA ne conduise à des décisions injustes. Il s’agit moins d’une opposition de principe à l’IA que le signe d’interrogations légitimes quant à la manière de gérer de possibles erreurs de décision par des systèmes automatisés. Ce scepticisme est particulièrement marqué en ce qui concerne les décisions automatisées : 61% des sondés s’opposent à ce qu’une IA décide seule de l’acceptation ou du rejet des demandes.

Dans le même temps, il ressort de l’enquête que le débat sur l’IA se heurte encore à une prudence certaine : 14% des personnes interrogées font confiance aux autorités de surveillance pour contrôler l’IA de manière efficace. 13% font confiance aux fournisseurs de technologies, 17% aux assureurs. Et leurs attentes sont claires : 86% exigent que les décisions importantes soient prises par des humains. 85% souhaitent être informés en toute transparence des cas d’utilisation de l’IA.

L’IA assistante est jugée bien plus positivement que les décisions entièrement automatisées

Le niveau d’acceptation de l’IA dépend fortement du cas d’utilisation. L’IA assistante est jugée bien plus positivement que l’IA décisionnelle (voir ci-dessous). « Grâce à notre collaboration avec les assurances, nous savons qu’une IA digne de confiance requiert des règles et des responsabilités claires. Et le sondage montre que les clients exigent transparence et contrôle. Concrètement, cela signifie que les entreprises doivent concevoir leurs systèmes d’IA de telle sorte que les assurés soient informés en toute transparence, que les décisions importantes soient prises par des humains et que des contrôles soient effectués régulièrement », déclare Madan Sathe, associé dans le domaine de la technologie forensique et responsable IA auprès des assureurs.

Niveau d’acceptation élevé (IA assistante) :

  • 62%  acceptent que l’IA traduise la police d’assurance en langage simple.
  • 58% acceptent les conseils de l’IA visant à éviter les sinistres.
  • 57% acceptent l’assistance de l’IA aux fins de détection des fraudes à l’assurance.

Niveau d’acceptation faible (IA décisionnelle) :

  • 61% refusent que l’IA prenne des décisions d’acceptation ou de refus.
  • 41% refusent que l’IA détermine la classification des risques et fixe le montant des primes.
  • 37% refusent que l’IA utilise les données de déplacement pour la fixation des primes.

Le partage de données dépend en partie de son utilité

Les clients sont prêts à partager leurs données, mais uniquement si l’utilité de la démarche est claire. 56% partageraient des photos et des justificatifs dans le cadre des déclarations de sinistre. Mais pour des sujets plus sensibles comme la santé ou la conduite, cette propension diminue fortement. Marcel Thom : « Il ressort également de l’enquête que bon nombre de clients estiment que l’utilisation de leurs données n’est pas toujours suffisamment transparente. »

L’acceptation de l’IA par les assurés est soumise à trois facteurs essentiels : 73% réclament un contrôle humain dans les cas critiques, 67% exigent une communication transparente sur l’utilisation de l’IA, et 59% demandent des procédures de recours simples.

Des directives claires pour une utilisation responsable de l’IA

L’étude montre clairement que la transparence en matière d’utilisation de l’IA est une condition préalable essentielle à son acceptation et à la confiance qu’on lui accorde. Le secteur des assurances devrait indiquer où et à quelles fins l’IA est utilisée, et comment l’équité est garantie. En ce qui concerne les décisions importantes, le contrôle humain reste essentiel aux yeux des assurés. Parallèlement, des normes d’équité doivent être définies et respectées. La collaboration entre les assureurs, les régulateurs et les fournisseurs de technologies est essentielle pour élaborer des normes qui garantissent une utilisation responsable de l’IA.

« Cette étude n’est pas un message d’alerte contre l’IA, mais un guide pratique pour une utilisation responsable », précise Marcel Thom. « Les clients ne sont pas fondamentalement opposés à l’IA. Ce qui compte, c’est que son utilisation soit transparente, compréhensible et responsable. Les assureurs qui prennent ces attentes au sérieux peuvent renforcer la confiance des assurés et poursuivre le développement de l’utilisation de l’IA de manière ciblée. »

À propos de l’étude

L’étude Deloitte de 2026 sur les assurances et l’IA a été réalisée en février et mars de la même année. 1’291 assurés suisses âgés de 18 à 79 ans ont été interrogés dans le cadre de l’enquête. L’échantillon est représentatif de la Suisse alémanique (71%), de la Suisse romande (25%) et de la Suisse italienne (4%). L’enquête explore l’utilisation de l’IA au quotidien, l’attitude des assurés vis-à-vis de l’IA, le niveau d’acceptation de l’IA dans des cas d’application concrets, la confiance envers différents acteurs ainsi que les critères d’acceptation de l’IA.

Our thinking