Une IA coupable de racisme ? Lemonade, retour sur un bad buzz

Une IA coupable de racisme ? Lemonade, retour sur un bad buzz

Emilie Autin
Rédigé par Emilie Autin
04 juin 2021 - 6 minutes

Tout n’est pas toujours rose dans le monde de l’assurance. Chez Lemonade, l’expression a pris tout son sens la semaine dernière. L’assurtech américaine, qui a choisi la couleur rose pour son identité visuelle, a ainsi vécu son premier bad buzz, après une polémique liée à son intelligence artificielle.

 

Une startup pour deux concepts clés : l’intelligence artificielle et la transparence

On ne présente plus Lemonade – et si vous êtes passé à côté du phénomène, on vous propose une séance de rattrapage. Les fondateurs Dan Schreiber et Shai Wininger ont imaginé une assurance 100% en ligne où, logiquement, tout passe en priorité par l’application. Pour déclarer un sinistre, la procédure est un peu différente de ce que nous avions l’habitude de faire jusqu’à présent. Une intelligence artificielle prend en main la discussion avec l’utilisateur pour récolter les informations nécessaires. Le sinistré doit aussi filmer une vidéo de lui-même expliquant les conditions du dégât et sa nature.

Deux concepts clés structurent l’approche de Lemonade : l’intelligence artificielle et la transparence. Les chiffres et rapports sont disponibles sur le site. Les réseaux sociaux sont évidemment utilisés pour renforcer la proximité avec ses clients, mais aussi faire connaître ses méthodes d’analyse de nos données. C’est donc sur Twitter que notre histoire commence.

Le 24 mai 2021, Lemonade publie un thread expliquant comment son intelligence artificielle collecte 100 fois plus de données que les assureurs traditionnels. Les assurances recueillent normalement de 20 à 40 points de données : nos noms, notre adresse, notre date de naissance, etc. L’intelligence artificielle de Lemonade, baptisée Maya ou Jim selon la procédure, pose 13 questions à l’utilisateur mais collecte aussi plus de 1600 points de données supplémentaires ! Les profils des clients sont donc bien plus précis, et peuvent fournir des prédictions statistiques à l’assureur. L’assurtech cherche avec ces données à évaluer et donc à limiter le risque de fraude. Cette intelligence artificielle représente donc aussi un atout économique.

Un exemple est ensuite développé dans le thread. Comme nous l’avons vu, lors d’un sinistre, l’assuré doit prendre une vidéo de lui-même expliquant ce qui se passe. Cette vidéo est ensuite analysée par l’intelligence artificielle qui cherche à détecter des signes de fraude. Lemonade se targue alors de posséder une technologie entraînée pour repérer des “non-verbal cues”, comprenez des “signaux non verbaux” indiquant la sincérité ou non de la personne, comme sa posture, ses gestes ou ses expressions faciales. C’est ici que le bad buzz trouve son origine.

 

LEMONADE FAIT SON MEA CULPA

Après ce thread, les internautes ont pointé et dénoncé les biais inhérents à l’IA. Pour entraîner ces technologies, les ingénieurs les nourrissent d’images et de vidéos. Au fur et à mesure, les algorithmes s’affinent jusqu’à devenir de plus en plus précis. Cependant, ces IA vont développer des biais qui peuvent jouer au détriment de certaines couleurs de peaux, origines sociales, du genre ou encore de caractéristiques physiques. En misant sur la technologie de manière très poussée, Lemonade s’expose donc à toutes ces conséquences.

L’assurtech a donc décidé de supprimer ce thread. Pas vraiment la solution idoine pour éteindre le feu… Les internautes avaient déjà sauvegardé ces tweets et ont continué à les faire circuler. Le 26 mai, soit le lendemain du thread original, l’assurtech était de retour avec un nouveau thread. Cette fois, c’était un mea culpa. L’entreprise assure ne pas laisser son IA seule maître des décisions concernant les sinistres. De plus, la direction de Lemonade précise qu’elle n’est pas construite pour juger les individus sur leurs caractéristiques physiques. “Notre système n’évalue pas les réclamations basées sur les antécédents, le genre, l’apparence, la couleur de peau, le handicap ou toute autre caractéristique physique”, écrit-elle dans son thread.

Dans un post plus long sur son blog, Lemonade apporte davantage d’explications. L’utilisation de la vidéo pour décrire les sinistres a des raisons pratiques. Les clients peuvent d’abord utiliser leurs propres mots pour décrire le sinistre. Lemonade croit aussi que ce système permet de réduire la fraude. Pour Lemonade, les humains auraient moins tendance à mentir en se regardant parler dans un miroir ou une caméra. Cette technologie permet aussi à l’assurance de rembourser en quelques secondes un tiers de ces utilisateurs. L’entreprise reste donc claire sur deux points clés : 

  1. “Une intelligence artificielle qui utilise des concepts nocifs tel que la phrénologie ou la physiognomonie n’a jamais, et ne sera jamais, utilisée par Lemonade”
  2. “Nous n’avons jamais, et ne laisserons jamais, une intelligence artificielle rejeter automatiquement des réclamations »

Lemonade a donc voulu remettre les pendules à l’heure. Mais en prenant position sur le sujet, la startup dévoile aussi les limites de l’intelligence artificielle. L’entreprise estime impossible de concevoir un algorithme capable de remplacer totalement des employés. Il y aura toujours une main humaine derrière les processus de validation des contrats ou des sinistres.

 

DE L’IA DANS L’ASSURANCE, FAUSSE BONNE IDEE ?

Ainsi, reste après ce bad buzz une question : utiliser une intelligence artificielle dans le monde de l’assurance, est-ce vraiment une bonne idée ? Comme nous l’avons vu, ces algorithmes possèdent des biais. Plusieurs études ont déjà démontré les biais raciaux de certaines intelligences artificielles. Il est simple d’étendre les limites de certains algorithmes à tous les autres. Le sujet est loin d’être simple, et même Google se heurte actuellement à des murs sur la dimension éthique. Tous les points de données récoltés sont-ils d’ailleurs utiles pour déterminer uniquement notre sincérité ? Sont-ils utilisés pour déterminer d’autres choses comme le prix que nous payerons le mois prochain ? Lemonade ne donne sur ces points pas plus d’explications.

L’épisode Lemonade a aussi mis en lumière une chose : les citoyens ne sont pas prêts à voir leur assurance totalement prise en charge par des robots. Pourtant, l’innovation avance à très grande vitesse autour de ce sujet. Beaucoup d’acteurs travaillent déjà en ce sens, en démontrant au quotidien l’efficacité de l’IA pour le secteur. La jeune licorne française Shift Technology, qui vient de conclure des nouveaux accords commerciaux, représente par exemple une petite révolution dans le monde de l’assurtech. Avec son intelligence artificielle déjà arrivée à maturité, les possibilités sont nombreuses. Au programme : détection de fraude, automatisation de tâches, centralisation de l’ensemble des données d’une entreprise, lutte contre le blanchiment d’argent et d’autres perspectives encore.

Golem.ai est une autre jeune pousse qui travaille sur l’IA en revendiquant une approche éthique. Elle porte un projet d’analyse de documents complexes comme des appels d’offres ou des bilans financiers. Cette technologie a déjà séduit des acteurs majeurs du milieu comme Allianz, la MACIF ou encore le Crédit Agricole. Zelros, une autre assurtech française, propose elle des solutions aux assureurs et à leurs clients pour distribuer et recevoir des produits ou services. L’assurtech travaille déjà avec La Banque Postale, AssurOne ou la MAIF.

En 2021, l’intelligence artificielle n’a pas fini de nous surprendre. Chaque jour, ces algorithmes ouvrent de nouvelles portes dans chaque secteur de la société. Il est donc impératif de comprendre aujourd’hui les enjeux qui entourent cette technologie disruptrice, pour trouver ce juste milieu entre innovation et éthique qui prend un caractère indispensable.

 

1 seul commentaire sur cet article. Réagissez !

Commentaires

  1. L’IA à la charnière entre innovation et éthique…