Remettre en cause l’utilisation abusive de l’IA dans l’assurance

« Cette année, nous avons voulu mettre en lumière le thème récurrent du déficit mondial de protection sous un angle différent, en examinant comment le secteur de l’assurance peut restaurer la confiance et apporter une plus grande valeur sociétale ».

Explorant certains des thèmes clés du dernier rapport « Global Insurance Outlook » d’EY, Isabelle Santenac (photo), responsable mondiale de l’assurance chez EY, a souligné le rôle que jouent la confiance et la transparence dans le déblocage de la croissance. C’est un lien fermement mis sous la loupe dans le rapport annuel qui examine comment le marché de l’assurance est remodelé par de multiples forces perturbatrices, y compris l’évolution de l’IA générative, l’évolution des comportements des clients et l’estompement des lignes de l’industrie dans le cadre du développement de nouveaux écosystèmes de produits.

S’attaquer au problème de l’utilisation abusive de l’IA
Santenac a noté que l’interconnectivité entre ces thèmes est fondée sur la nécessité de restaurer la confiance, car elle est au centre de la recherche d’opportunités et de défis au milieu de tant de perturbations. Cela est particulièrement pertinent compte tenu de la volonté de l’industrie d’être davantage axée sur le client et d’accroître la fidélité des clients, a-t-elle déclaré, ce qui nécessite que les clients aient confiance en votre marque et en ce que vous faites.

Se concentrant sur le « sujet exponentiel » qu’est l’intelligence artificielle, elle a déclaré qu’elle constatait que le secteur reconnaissait largement les opportunités et les risques que l’intelligence artificielle – et en particulier l’intelligence artificielle générative – présente.

« L’un des principaux risques est de savoir comment éviter l’utilisation abusive de l’IA », a-t-elle déclaré. « Comment s’assurer que l’on utilise l’IA d’une manière éthique et conforme à la réglementation, en particulier aux lois sur la confidentialité des données ? Comment s’assurer que les modèles utilisés ne sont pas biaisés ? Comment s’assurer que les données utilisées pour alimenter les modèles sont sûres et correctes ? C’est un sujet qui pose de nombreux défis à l’industrie ».

Cas d’essai ou cas d’utilisation ? Comment les compagnies d’assurance adoptent l’IA
Ces défis n’empêchent pas les entreprises de tout l’écosystème de l’assurance de travailler sur des modèles de « validation de principe » pour les processus internes, dit-elle, mais il y a encore une forte hésitation à les faire passer à des interactions plus en contact avec les clients, compte tenu des risques encourus. Se référant à une enquête récemment menée par EY sur l’IA générative, elle a noté que les cas d’utilisation réels sont encore très limités, non seulement dans le secteur de l’assurance mais aussi de manière plus générale.

« Tout le monde en parle, tout le monde l’étudie et tout le monde teste des preuves de concept », a-t-elle déclaré. « Mais personne ne l’utilise encore à grande échelle, ce qui rend difficile de prédire comment cela fonctionnera et quels risques cela entraînera. Je pense qu’il faudra un peu de temps avant que tout le monde puisse mieux comprendre et évaluer les risques potentiels, car il s’agit pour l’instant d’un phénomène vraiment naissant. Mais c’est quelque chose que le secteur de l’assurance doit avoir sur son radar, quoi qu’il en soit. »

Comprendre l’évolution de l’IA générative
En creusant davantage l’évolution de l’IA générative, Santenac a souligné la nature omniprésente de la technologie et l’impact qu’elle aura inévitablement sur les autres thèmes urgents soulignés par le rapport sur les perspectives de l’assurance d’EY pour 2024. Aucune conversation actuelle sur les comportements des clients ou le capital marque ne peut se permettre de ne pas explorer le potentiel d’impact de l’IA sur une marque, a-t-elle déclaré, et d’examiner les connotations négatives qu’une utilisation incorrecte ou contraire à l’éthique pourrait entraîner.

« D’un autre côté, l’IA peut vous aider à accéder à davantage de données afin de mieux comprendre vos clients. « Elle peut vous aider à mieux cibler les produits que vous souhaitez vendre et les clients auxquels vous devriez les vendre. Elle peut vous aider à mieux segmenter votre clientèle, ce qui est absolument essentiel si vous voulez bien servir vos clients. Elle peut vous aider à savoir avec qui vous devriez établir des partenariats et à quels écosystèmes vous devriez appartenir pour mieux accéder aux clients ».

C’est la nature omniprésente de l’IA générative qui la distingue d’autres mots à la mode « flash in the pan » tels que Blockchain, l’Internet des objets (IoT) et Le métavers. L’IA touche déjà de nombreux éléments de la proposition d’assurance, a-t-elle déclaré, du point de vue des processus, de la vente et des données. Il devient de plus en plus clair qu’il s’agit d’une tendance qui va durer, notamment parce que l’apprentissage automatique en tant que concept existe et est utilisé depuis longtemps.

Ce à quoi les compagnies d’assurance doivent penser
« La différence est que l’IA générative est tellement plus puissante et ouvre tellement de nouveaux territoires, c’est pourquoi je pense qu’elle va durer », a-t-elle déclaré. « Mais nous, en tant qu’industrie, devons comprendre pleinement les risques qui découlent de son utilisation – les préjugés, les problèmes de confidentialité des données, les problèmes d’éthique, etc. Ce sont des risques critiques, mais nous devons aussi reconnaître, du point de vue du secteur de l’assurance, comment ils peuvent créer des risques pour nos clients.

« Pour moi, il s’agit d’un risque émergent – comment pouvons-nous proposer une protection contre l’utilisation abusive de l’IA, contre la violation de la confidentialité des données et contre toutes les choses qui deviendront des risques plus importants avec l’utilisation de l’IA générative ? C’est une préoccupation qui émerge à peine, mais l’industrie doit y réfléchir afin de comprendre pleinement le risque. Par exemple, les experts prévoient que l’IA générative augmentera le risque de fraude et le risque cybernétique. La question qui se pose donc au secteur est la suivante : quelle protection pouvez-vous offrir pour couvrir ces risques nouveaux ou croissants ? »

Les compagnies d’assurance doivent commencer à réfléchir à ces questions dès maintenant, a-t-elle ajouté, sinon elles courent le risque d’être laissées pour compte au fur et à mesure des avancées. Ceci est d’autant plus pertinent que certains litiges ont déjà commencé autour de l’utilisation et de l’abus de l’IA, en particulier aux États-Unis. La première chose à laquelle les assureurs doivent penser, c’est aux conséquences d’une mauvaise utilisation de l’IA par leurs clients et à la question de savoir si cette utilisation est implicitement ou explicitement couverte par leur police d’assurance. Les assureurs doivent être très conscients de ce qu’ils couvrent et de ce qu’ils ne couvrent pas leurs clients, sinon ils risquent de répéter ce qui s’est passé pendant la pandémie avec les poursuites et les paiements liés à l’interruption d’activité.

« Il est important de savoir si vos politiques actuelles couvrent l’utilisation abusive potentielle de l’IA », a-t-elle déclaré. « Et si c’est le cas, comment voulez-vous aborder la question ? Devriez-vous vous assurer que votre client dispose du cadre approprié, etc. pour utiliser l’IA ? Ou voulez-vous réduire le risque de ce sujet particulier ou potentiellement exclure le risque ? Je pense que c’est une chose à laquelle les assureurs doivent réfléchir assez rapidement. Et je sais que certains y réfléchissent déjà très attentivement ».

WP Twitter Auto Publish Powered By : XYZScripts.com