L’importance capitale d’une IA équitable et responsable dans le secteur de l’assurance
Earnix Team
July 15, 2024

L’IA révolutionne aujourd’hui le secteur de l’assurance en améliorant la souscription, la gestion des sinistres, le service client et le développement de produits. Elle a déjà fait ses preuves en automatisant des tâches manuelles, en améliorant les pratiques d’évaluation des risques, en détectant les fraudes, en personnalisant les interactions avec les clients et en permettant une tarification prédictive.
Grâce à ces nouvelles fonctionnalités, l’IA offre désormais un large éventail d’avantages décisifs pour les assureurs : efficacité accrue, réduction des coûts, gains de productivité et amélioration des niveaux de satisfaction, d’engagement et de fidélisation des clients.
Cependant, l’évolution rapide de l’IA et son adoption généralisée dans l’assurance soulèvent de nouvelles questions, concernant d’une part des éventuels biais et discriminations et, d’autre part, les implications globales de l’IA pour les assureurs.
*************************************************************************************************************
Vous souhaitez en savoir plus sur l’IA équitable et responsable ?
Regardez notre webinaire à la demande dans lequel les experts d’Earnix font le point sur ce que les assureurs doivent savoir pour intégrer l’IA de manière responsable tout en préservant la confidentialité des données.
*************************************************************************************************************
Les conséquences négatives de l’IA sur l’éthique dans le secteur de l’assurance
Les préoccupations des assureurs sont justifiées. De nouvelles interrogation se posent lorsque les assureurs cherchent à utiliser l’IA pour obtenir des résultats justes et équitables qui correspondent au meilleur intérêt de leurs clients.
Selon l’étude CEO Outlook 2023 de KPMG, 57 % des dirigeants d’entreprise se disent préoccupés par les défis éthiques liés à la mise en œuvre de l’IA.
Ruptures d’équité et biais algorithmiques dans la souscription et la tarification
Supposons qu’une compagnie d’assurance propose une assurance automobile pour laquelle un modèle de tarification fondé sur l’IA utilise un ensemble de données recouvrant de nombreux facteurs tels que l’historique de conduite, le type de véhicule, le kilométrage, l’emplacement géographique et d’autres informations démographiques.
Bien que ce modèle ne prenne pas en compte l’origine ethnique, le sexe ou les revenus, il peut utiliser des variables de substitution fortement corrélées à ces caractéristiques. Il est possible que le modèle de tarification qui en résulte pénalise injustement certaines personnes en fonction de caractéristiques telles que l’origine ethnique, le statut socioéconomique ou d’autres informations sensibles. Faute d’une visibilité totale sur l’algorithme d’IA et sur son mode d’utilisation des données, des biais au niveau des données utilisées pour l’entraînement pourraient donner lieu à des résultats discriminants.
Alors que les assureurs envisagent d’intégrer de nouvelles sources de données et d’appliquer de nouvelles techniques de modélisation fondées sur le Machine Learning, fournir une transparence et une traçabilité totales aux autorités réglementaires est essentiel (ou à toute autre partie cherchant à comprendre la tarification proposée). Les délais d’approbation dépendront de la vitesse à laquelle les assureurs pourront documenter leurs processus et décisions de tarification.
Incidences potentielles sur la protection de la vie privée et des données personnelles
Dans le secteur de l’assurance, la prise de décision fondée sur l’IA repose fortement sur l’analyse de gros volumes de données personnelles, ce qui soulève des préoccupations majeures quant à la protection de la vie privée et des données personnelles des clients. La collecte massive et le traitement approfondi des données peuvent conduire à de potentiels manquements, voire à un usage abusif de données sensibles. Tout cela renforce davantage l’importance d’adopter des pratiques globales régissant la sécurité des données afin de minimiser ces risques et de conserver la confiance des clients.
La collecte, le stockage et l’utilisation de données d’identification personnelle (PII) dans les processus d’assurance fondés sur l’IA présentent différents risques, tels que les violations de données et les accès non autorisés, entre autres par des parties internes ou externes susceptibles d’utiliser les données à des fins malveillantes. Il existe également un risque que les données soient utilisées à d’autres fins que celles initialement prévues, ouvrant la voie à des atteintes à la vie privée et à des discriminations.
Transparence et explicabilité des décisions fondées sur l’IA
Pour que les assureurs puissent adopter l’IA en toute confiance, il convient d’instituer un mécanisme qui permette aux parties prenantes et aux professionnels d’interpréter les processus complexes de prise de décision de l’IA et de s’assurer du respect des exigences réglementaires.
Des experts développent actuellement des outils permettant d’ouvrir la « boîte noire » de l’IA et de comprendre une partie de ses rouages. L’explicabilité est une fenêtre qui rend l’IA plus compréhensible et transparente et qui permet d’assurer l’égalité des chances et des résultats entre différents groupes de personnes, indépendamment de leur origine ethnique, leur sexe, leur âge ou d’autres paramètres sensibles.
Implications économiques et sociales des pratiques d’assurance utilisant l’IA
Pour certains, l’adoption de l’IA pourrait avoir un effet négatif sur l’emploi. Ils craignent par exemple que l’utilisation de l’IA entraîne des suppressions de postes dans des fonctions jusqu’alors assurées par des employés, en particulier dans les domaines de la souscription, de la gestion des sinistres et du service client.
Pourtant, si l’on choisit de voir le verre à moitié plein, l’IA peut aider les employés à être plus productifs et encore plus compétitifs dans leurs fonctions ou domaines de compétence. L’IA continuera d’automatiser les tâches répétitives et chronophages, mais elle permettra aussi d’accéder plus rapidement aux informations essentielles et fournira des alternatives novatrices aux processus d’assurance traditionnels dans des fonctions clés telles que la tarification et la gestion des risques. En ce sens, l’IA permettra aux employés de se concentrer sur des tâches plus complexes, plus gratifiantes et de nature stratégique, qui font appel à la réflexion critique, à la créativité et aux compétences interpersonnelles.
À mesure que l’utilisation de l’IA progressera, les employés pourront se reconvertir, améliorer leurs compétences et en acquérir de nouvelles dans des fonctions importantes telles que l’analyse de données, la gestion de l’IA et l’utilisation d’autres technologies avancées. Cette dynamique peut conduire à une plus grande satisfaction au travail et ouvrir de nouvelles perspectives professionnelles.
Meilleures pratiques pour l’utilisation d’une IA responsable dans le secteur de l’assurance
Tout ce qui précède souligne l’importance de s’appuyer sur des lignes directrices et des politiques claires lors de la conception et de la mise en œuvre de modèles d’IA dans le secteur de l’assurance, ainsi que la nécessité d’intégrer des points de vue divers dans les processus de prise de décision de l’IA.
Définir des lignes directrices claires pour la conception et l’application de modèles d’IA conformes aux règles d’éthique
L’élaboration de lignes directrices et de politiques claires et complètes pour une IA responsable est essentielle pour garantir l’équité, la transparence et la responsabilisation dans les décisions basées sur l’IA. Ces lignes directrices contribuent à la protection de la vie privée et des données personnelles des clients, à atténuer les biais et à prévenir les pratiques discriminatoires. En définissant des normes éthiques, les assureurs peuvent conserver la confiance du public et se conformer aux réglementations tout en promouvant une utilisation responsable des technologies d’IA dans leurs activités.
Lorsqu’ils définissent leurs lignes directrices pour une IA responsable dans le domaine de l’assurance, les assureurs doivent faire tout leur possible pour assurer la confidentialité et la sécurité des données, de manière à protéger les données sensibles de leurs clients. En outre, la promotion de la transparence dans les processus de prise de décision basée sur l’IA et une responsabilisation totale sont essentielles pour conserver la confiance des clients et assurer la conformité réglementaire.
Il serait également judicieux que les assureurs impliquent un large éventail de parties prenantes dans les étapes de conception et de test, afin de faire tout leur possible pour rendre les systèmes d’IA équitables, transparents et non biaisés. Dans l’idéal, cette démarche devrait inclure des clients, des employés et même des représentants de différents organismes réglementaires.
Les assureurs devraient également communiquer clairement sur les processus de prises de décision des systèmes d’IA pour illustrer ces processus et montrer qu’ils sont compréhensibles par des utilisateurs et des parties prenantes sans expertise technique, afin de renforcer la confiance et la responsabilisation.
Intégrer différents points de vue et expertises dans les processus de prise de décision fondés sur l’IA
L’intégration de différents points de vue dans les processus de prise de décision reposant sur l’IA est essentielle pour garantir l’équité, la transparence et l’efficacité du système. Un panel de parties prenantes (réunissant des clients, des employés, des représentants des autorités réglementaires et de la communauté) peut apporter des éclairages et des expériences uniques, mettre au jour des biais, identifier des angles morts et atténuer les conséquences imprévues au sein des systèmes d’IA.
En associant des points de vue différents, les entreprises peuvent mieux appréhender les conséquences éthiques de leurs utilisations de l’IA, anticiper des risques ou des préjudices potentiels et concevoir des solutions respectueuses des valeurs et des attentes de la société. De plus, une prise de décision inclusive vient étayer la confiance et la légitimité, renforçant l’acceptation et l’adoption des technologies d’IA tout en favorisant des résultats équitables pour toutes les parties prenantes.
Cette approche peut être payante dès lors qu’elle réduit les biais et la discrimination dans leur ensemble, qu’elle améliore la résolution des problèmes et l’innovation, et qu’elle renforce la confiance et l’acceptation des parties prenantes.
Garantir la transparence et la responsabilisation dans les prises de décision basées sur l’IA
La transparence et la responsabilisation dans les prises de décision fondées sur l’IA sont un levier important pour faire en sorte que les systèmes d’IA fonctionnent de manière équitable, responsable et non biaisée. Ces mesures, qui permettent aux parties prenantes de comprendre comment les décisions sont prises, contribuent à renforcer la confiance à l’égard de cette technologie. L’application de protocoles de responsabilisation clairs garantit que l’ensemble des erreurs ou préjudices causés par l’IA seront rapidement pris en compte et corrigés.
Les assureurs peuvent promouvoir la transparence des modèles d’IA en fournissant des informations détaillées et une description du fonctionnement de ces modèles, y compris les sources de données, les algorithmes utilisés et les critères de prise de décision. Ils peuvent donner à leurs clients l’accès à des résumés ou des visualisations simplifiés montrant de quelle manière leurs données influencent les résultats, par exemple dans le cas du calcul des primes ou de la validation des déclarations de sinistre.
Ces pratiques ont déjà cours aujourd’hui. Prenons le cas d’un programme d’assurance à l’usage qui utilise la télématique pour collecter des données relatives notamment au kilométrage, aux excès de vitesse, aux accélérations ou aux freinages brusques dans le cadre de son modèle d’IA. Nous trouvons également des exemples qui montrent que l’IA peut estimer les risques d’incendie en analysant différentes sources de données, telles que les tendances météorologiques, les feux de forêt passés, la densité de végétation et l’activité humaine.
Ces modèles et éléments d’analyse fondés sur l’IA aident les clients à comprendre ce qui est pris en compte dans le prix de leur police et à connaître les mesures qu’ils pourraient être tenus de prendre pour rester assurables à l’avenir.
Les assureurs peuvent également mettre en place un système soumettant leurs modèles d’IA à des audits et à des examens réguliers par des tiers afin d’assurer la pertinence et l’équité des modèles. Ces mesures peuvent contribuer à accroître leur conformité réglementaire, en particulier s’ils modifient leurs modèles métier pour les améliorer plus fréquemment que par le passé. Il s’agit d’un levier important qui permet aux assureurs de vérifier qu’ils disposent des outils, des processus et des personnels appropriés pour se préparer aux évolutions des exigences réglementaires et s’y conformer.
Il convient de souligner que des moyens de contrôle sont déjà en place pour engager la responsabilité des assureurs, et que bien d’autres encore seront adoptés. Par exemple, aux États-Unis, le National Institute of Standards and Technology (NIST) élabore actuellement un cadre visant à améliorer la gestion et la gouvernance des systèmes d’IA, en mettant l’accent sur la transparence et la précision. Toujours aux États-Unis, la proposition de loi sur la régulation des algorithmes d’IA (Algorithmic Accountibility Act) vise à obliger les entreprises à effectuer des évaluations d’impact de leurs systèmes d’IA, en particulier concernant les biais.
De plus, les normes et lignes directrices sectorielles publiées par des organismes tels que la National Association of Insurance Commissioners (NAIC) offrent un cadre de supervision et énoncent les meilleures pratiques pour l’utilisation d’une IA responsable dans le secteur de l’assurance. Ces réglementations et normes garantissent que les assureurs respectent les règles éthiques et les droits des consommateurs. Elles prévoient également des sanctions en cas de non-conformité.
Conclusion
Vous souhaitez en savoir plus sur l’IA équitable et responsable dans le secteur de l’assurance ? Regardez notre webinaire à la demande « L’IA responsable : confidentialité, transparence et équité dans le secteur de l’assurance », ou rendez-vous sur www.earnix.com dès maintenant.