L’intelligence artificielle (IA) est d’ores et déjà ancrée dans le quotidien en Suisse. Si l’on examine l’utilisation de l’IA dans le secteur des assurances, le constat est néanmoins en demi-teinte : un peu plus d’un tiers des assurés affichent une attitude prudente vis-à-vis des applications d’IA, tandis qu’un peu moins d’un cinquième y voient un potentiel d’amélioration des services. La récente enquête de Deloitte montre que la transparence concernant l’utilisation de l’IA ainsi que le contrôle humain sont des critères décisifs pour une adoption à grande échelle.
L’enquête menée début 2026 par la société d’audit et de conseil Deloitte auprès de 1’291 assurés suisses fait ressortir le constat suivant : si 71% de la population utilisent l’IA au moins une fois par mois, le secteur des assurances affiche une attitude plus prudente en la matière. Ainsi, 36% des sondés se montrent critiques, tandis que 18% affichent une attitude positive vis-à-vis de l’utilisation de l’IA.
« Le sondage met en évidence un contraste notable », déclare Marcel Thom, responsable Assurances chez Deloitte Suisse. « Pour une grande partie de la population, l’IA fait partie du quotidien. Le milieu de l’assurance est quant à lui plus contrasté : les clients attachent en effet une grande importance à l’équité, à la transparence et au contrôle humain. C’est un signal clair pour le secteur sur les moyens à mettre en œuvre pour renforcer la confiance dans l’utilisation de l’IA. »
L’étude fait ressortir des contrastes marqués : 14% des personnes interrogées utilisent l’IA quotidiennement, tandis que 85% pensent que les assureurs y ont déjà recours. Dans le même temps, près de la moitié (51%) des sondés craignent que l’IA ne conduise à des décisions injustes. Il s’agit moins d’une opposition de principe à l’IA que le signe d’interrogations légitimes quant à la manière de gérer de possibles erreurs de décision par des systèmes automatisés. Ce scepticisme est particulièrement marqué en ce qui concerne les décisions automatisées : 61% des sondés s’opposent à ce qu’une IA décide seule de l’acceptation ou du rejet des demandes.
Dans le même temps, il ressort de l’enquête que le débat sur l’IA se heurte encore à une prudence certaine : 14% des personnes interrogées font confiance aux autorités de surveillance pour contrôler l’IA de manière efficace. 13% font confiance aux fournisseurs de technologies, 17% aux assureurs. Et leurs attentes sont claires : 86% exigent que les décisions importantes soient prises par des humains. 85% souhaitent être informés en toute transparence des cas d’utilisation de l’IA.
Le niveau d’acceptation de l’IA dépend fortement du cas d’utilisation. L’IA assistante est jugée bien plus positivement que l’IA décisionnelle (voir ci-dessous). « Grâce à notre collaboration avec les assurances, nous savons qu’une IA digne de confiance requiert des règles et des responsabilités claires. Et le sondage montre que les clients exigent transparence et contrôle. Concrètement, cela signifie que les entreprises doivent concevoir leurs systèmes d’IA de telle sorte que les assurés soient informés en toute transparence, que les décisions importantes soient prises par des humains et que des contrôles soient effectués régulièrement », déclare Madan Sathe, associé dans le domaine de la technologie forensique et responsable IA auprès des assureurs.
Niveau d’acceptation élevé (IA assistante) :
Niveau d’acceptation faible (IA décisionnelle) :
Les clients sont prêts à partager leurs données, mais uniquement si l’utilité de la démarche est claire. 56% partageraient des photos et des justificatifs dans le cadre des déclarations de sinistre. Mais pour des sujets plus sensibles comme la santé ou la conduite, cette propension diminue fortement. Marcel Thom : « Il ressort également de l’enquête que bon nombre de clients estiment que l’utilisation de leurs données n’est pas toujours suffisamment transparente. »
L’acceptation de l’IA par les assurés est soumise à trois facteurs essentiels : 73% réclament un contrôle humain dans les cas critiques, 67% exigent une communication transparente sur l’utilisation de l’IA, et 59% demandent des procédures de recours simples.
L’étude montre clairement que la transparence en matière d’utilisation de l’IA est une condition préalable essentielle à son acceptation et à la confiance qu’on lui accorde. Le secteur des assurances devrait indiquer où et à quelles fins l’IA est utilisée, et comment l’équité est garantie. En ce qui concerne les décisions importantes, le contrôle humain reste essentiel aux yeux des assurés. Parallèlement, des normes d’équité doivent être définies et respectées. La collaboration entre les assureurs, les régulateurs et les fournisseurs de technologies est essentielle pour élaborer des normes qui garantissent une utilisation responsable de l’IA.
« Cette étude n’est pas un message d’alerte contre l’IA, mais un guide pratique pour une utilisation responsable », précise Marcel Thom. « Les clients ne sont pas fondamentalement opposés à l’IA. Ce qui compte, c’est que son utilisation soit transparente, compréhensible et responsable. Les assureurs qui prennent ces attentes au sérieux peuvent renforcer la confiance des assurés et poursuivre le développement de l’utilisation de l’IA de manière ciblée. »
L’étude Deloitte de 2026 sur les assurances et l’IA a été réalisée en février et mars de la même année. 1’291 assurés suisses âgés de 18 à 79 ans ont été interrogés dans le cadre de l’enquête. L’échantillon est représentatif de la Suisse alémanique (71%), de la Suisse romande (25%) et de la Suisse italienne (4%). L’enquête explore l’utilisation de l’IA au quotidien, l’attitude des assurés vis-à-vis de l’IA, le niveau d’acceptation de l’IA dans des cas d’application concrets, la confiance envers différents acteurs ainsi que les critères d’acceptation de l’IA.
Deloitte offre des services intégrés en Audit & Assurance, Tax & Legal, Strategy, Risk & Transactions Advisory et Technology & Transformation. Nous associons notre vision et nos capacités d’innovation dans de multiples disciplines à notre connaissance du monde des affaires et de l’industrie pour accompagner nos clients dans leur trajectoire vers l’excellence, partout dans le monde. Avec environ 2’500 collaborateurs répartis sur les sites de Bâle, Berne, Genève, Lausanne, Lugano et Zurich (siège), Deloitte propose ses services à des entreprises et à des institutions de toutes formes juridiques et de toutes tailles, opérant dans tous les secteurs d’activité.
Deloitte SA est une filiale de Deloitte North and South Europe (NSE), société affiliée de Deloitte Touche Tohmatsu Limited (DTTL) qui emploie plus de 460’000 collaborateurs dans plus de 150 pays.
Note à la rédaction
Dans la présente information aux médias, la désignation Deloitte fait référence aux filiales suisses de Deloitte NSE LLP, une société affiliée de Deloitte Touche Tohmatsu Limited (DTTL), une « UK private company limited by guarantee » (une société à responsabilité limitée de droit britannique). DTTL et son réseau de sociétés affiliées forment chacune une entité juridique indépendante et séparée. DTTL et Deloitte NSE LLP ne fournissent pas elles-mêmes de services aux clients. Pour une description de la structure juridique de DTTL et de ses sociétés affiliées, veuillez consulter le site www.deloitte.com/ch/about.
Deloitte SA est une société d’audit agréée et surveillée par l’Autorité fédérale de surveillance en matière de révision (ASR) et par l’Autorité fédérale de surveillance des marchés financiers (FINMA).
Les informations contenues dans cette information aux médias étaient correctes au moment de l’envoi.
Contact(s) presse :
Michael Wiget
Responsable de la communication externe
Tél : +41 58 279 70 50
mwiget@deloitte.ch
Kevin Capellini
Spécialiste en communication externe
Tel : +41 58 279 59 74
kcapellini@deloitte.ch