Chapitre 6 : IA et éthique, la question qui pique !

Chapitre 6 : IA et éthique, la question qui pique !

Emilie Autin
Rédigé par Emilie Autin
07 septembre 2021 - 9 minutes

La plus grand peur liée à l’intelligence artificielle ? Qu’elle atteigne une forme de conscience d’elle-même ! Elle est déjà capable de battre nos champions d’échecs ou de terminer une œuvre inachevée de Beethoven, alors imaginez demain… Ses créateurs n’auraient dès lors plus de pouvoir sur elle. L’IA deviendrait un « être » autonome, capable de faire ses propres choix et même de développer un sens de l’éthique qui lui serait propre… et potentiellement opposé au nôtre – rappelez-vous, Terminator et cie.

Rassurez-vous, les intelligences artificielles n’en sont pas là. Au contraire, ce sont plutôt ses créateurs qui auraient pour le moment tendance à impacter négativement leur développement. Les débats et polémiques actuels autour des questions épineuses de l’éthique et des biais en constituent l’évidence.

 

Les biais, c’est quoi ?

biais assurance

Quand on évoque les questionnements relatifs à l’IA, hors de la peur irrationnelle liée à l’hypothèse qu’elle prenne le contrôle de la Terre, la question des biais ressort inévitablement. Ce sujet prend d’ailleurs de l’ampleur, que ce soit dans les médias ou dans les discussions plus générales autour de l’évolution sociétale. Mais revenons plutôt dans un premier temps sur ce qu’est un biais, et ses conséquences sur l’intelligence artificielle. 

Un biais pourrait être défini comme un faux-pas dans un processus cognitif, issu d’une erreur systématique ou d’une simplification, qui va se répercuter dans les résultats fournis par l’algorithme. Ce biais peut être de différentes natures (sexiste ou raciste par exemple), englober plusieurs enjeux et avoir des impacts divers sur les réponses apportées. La question des biais chez les intelligences artificielles commence à faire du bruit, à mesure que cette technologie se démocratise.

Il faut dire que les enjeux sont brûlants. En effet, les algorithmes de data learning n’ont aucune forme de raisonnement intelligent. L’algorithme se débrouille seul pour trouver le résultat voulu depuis des données. Il reproduit à l’échelle les modèles qui lui ont été fournis. Or, si ces modèles sont biaisés, l’algorithme ne peut pas les corriger et va donc reproduire ces biais à l’échelle. On vous laisse imaginer les potentiels problèmes au sein d’une société au sein de laquelle l’IA sera demain présente partout.

 

Les biais en action

 

Pour mieux comprendre, prenons quelques exemples. Revenons un instant sur la métaphore des images de chiens et chats évoquée dans le deuxième épisode de notre série. L’intelligence artificielle est capable de distinguer ces deux animaux, car elle a appris à le faire depuis des modèles. Mais, si on lui donne une photo d’un chien à l’intérieur en train de dormir, il y a des chances pour qu’elle pense que ce cliché montre un chat. Pourquoi donc ? Parce qu’une majorité des visuels de chat qu’on lui a fournis représentent des scènes se déroulant en intérieur, et montrent des chats se reposant. Ce biais a donc induit en erreur l’algorithme. 

En appliquant ce principe dans le monde réel, les conséquences peuvent être autrement plus problématiques. Demandez à Facebook, qui vient de voir son algorithme pris en flagrant délit, lui qui a confondu des personnes noires avec des primates dans son outil de recommandation ! Certaines intelligences artificielles aident également les services des relations humaines à effectuer leurs recrutements. Elles vont être nourries des données de l’entreprise, et des CV qui ont été précédemment retenus. L’IA va donc trouver des points communs parmi tous ces profils, comme leur âge, leur niveau d’expérience ou… leur sexe. Si les postes de responsabilité sont occupés comme dans la majorité des structures par des hommes, l’IA va se contenter de reproduire les biais de l’entreprise à l’échelle car le genre est tout simplement devenu un critère de sélection pour elle.

L’assurance est elle aussi directement concernée par ces problématiques. Lemonade en a d’ailleurs fait l’expérience en 2021. L’assurtech star américaine a en effet été épinglée à la suite d’un tweet dans lequel elle se targuait de pousser très loin la collecte des données clients pour façonner son algorithme. Effet boomerang, plusieurs utilisateurs ont accusé l’IA de la startup de racisme, un « bad buzz » très délicat à gérer. L’affaire se poursuit, et c’est aujourd’hui une action en justice à laquelle doit faire face la jeune entreprise.

 

Des IA qui vont déjà trop loin ?

IA mauvaise

Nos peurs face à l’IA seraient-elles en fait justifiées ? Devons-nous déjà nous inquiéter d’avoir perdu le contrôle ? Les IA prennent en effet des décisions qui impactent déjà nos vies, et ce dans nombre de domaines : 

 

  • Amazon a laissé une intelligence artificielle licencier des livreurs sans intervention humaine sur la base de leurs performances.
  • En Chine, des célibataires tombent amoureux de leur assistant vocal, qui échange des messages avec eux, allant même jusqu’à des messages coquins. Et voilà le scénario du film « Her » qui prend vie !
  • OpenAI a créé une intelligence artificielle capable de concevoir des fake news, aussi convaincantes que celle créées par les pros de la désinformation… mais beaucoup plus rapidement ! 
  • Une IA a retiré des aides vitales à des patients pour optimiser les performances du système de santé dans certains États américains. Des personnes sont décédées, d’autres ont dû se battre pour retrouver une aide qui leur était vitale.

Ces exemples invitent à une vigilance de tous les instants à propos d’une technologie qui, on le constate, peut connaître de sérieuses dérives. L’IA est puissante, très puissante et ouvre à l’humain un nouveau monde de possibles. Gare toutefois à ne pas en faire n’importe quoi…

En savoir plus avec la série concoctée par Arte : « Intelligence artificielle : entre progrès et dérives« 

 

Que faire contre les biais ? Un exemple avec Shift Technology

 

Devant les conséquences des biais chez les IA, une question se pose : est-il possible de les corriger et, si oui, comment ? Chaque entreprise va développer sa propre stratégie pour y répondre. Certaines vont essayer d’intervenir en amont, en nourrissant leurs IA avec des modèles ne comportant aucun biais afin de ne pas les mener en erreur. D’autres vont chercher à corriger les biais au moment du résultat avec des experts humains. Les variables choisies pour alimenter l’algorithme ont évidemment un impact sur la probabilité de biais. 

Arnaud Grapinet nous a donné un exemple tiré de l’expérience de son entreprise, Shift Technology. Pour contrer les biais, la société n’utilise pas une seule et unique IA, mais une multitude de petits modules autonomes. Utilisons une simple illustration. Les noms de famille voire prénoms sont assez révélateurs de nos origines et demeurent une information incontournable dans les réclamations faites aux assurances. Comment dès lors faire pour qu’un système de détection de fraude basé sur l’IA ne tombe pas dans le piège des biais ?

En créant de multiples modules indépendants, les risques sont réduits au néant. En effet, un premier module va prendre connaissance du nom, et juste observer si ce nom est déjà présent dans d’autres réclamations ou s’il apparaît dans la base de données. L’IA peut aussi repérer si une version légèrement modifiée du nom est présente dans la base. Puis, un autre module va récupérer le résultat de ces recherches, mais cette fois sans le nom de la personne. Neutralité et impartialité sont donc garanties !

 

Les entreprises prêtes à poser un cadre éthique strict

 

La responsabilité éthique d’une IA semble revenir à son créateur. C’est lui qui nourrit et élève cette IA en premier lieu. Pour nos quatre pépites françaises, IA rime avec éthique, mais surtout limites. Chez Zelros, Golem, Shift et Akur8, les algorithmes sont ainsi tout à fait transparents et auditables. Il est assez simple de suivre le raisonnement de la machine pour comprendre comment elle est parvenue à tel ou tel résultat. 

De plus, les entreprises font preuve de vigilance. Elles conseillent et orientent les assureurs, qui pour beaucoup débutent encore dans l’intelligence artificielle. Les startups posent des limites à leurs clients, parfois pour des questions d’éthique mais surtout pour éviter tout malentendu. Tous ne sont pas au courant des limites légales dans l’utilisation de certaines variables. Certaines d’entre elles, comme le sexe pour les assurances autos, ne peuvent en effet en aucun cas être utilisées.

 

« En matière d’IA, la confiance n’est pas un luxe, mais une nécessité absolue »

Règlement européen IA

Avoir une IA transparente est évidemment une question d’éthique et de transparence. Ces notions sont extrêmement importantes chez les clients, d’autant plus dans l’assurance. Le secteur, structuré largement autour de la notion de confiance, a en effet besoin de cette qualité chez tous ces partenaires. 

La confiance ne se décrète toutefois pas toujours, et a parfois besoin d’un cadre réglementaire pour l’épauler. C’est dans cette optique que Bruxelles a dévoilé, en avril 2021, un projet de règlement européen, le « Artificial Intelligence Act »En matière d’intelligence artificielle, la confiance n’est pas un luxe mais une nécessité absolue. En adoptant ces règles qui feront date, l’UE prend l’initiative d’élaborer de nouvelles normes mondiales qui garantiront que l’IA soit digne de confiance”, a déclaré ​​Margrethe Vestager, la vice-présidente exécutive pour une Europe adaptée à l’ère du numérique. 

‘’Ces règles’’ évoquées ont un objectif simple : créer une vision européenne autour de l’IA, basée sur l’éthique et prévenant certains risques et dérives. Quatre types de risques provoqués par l’intelligence artificielle ont été identifié par la Commission européenne : 

  • Les risques inacceptables, qui sont situés dans le champ de la sécurité, des moyens de subsistance et qui touchent au droit des personnes. Ces IA seront strictement interdites en Union Européenne. 
  • Les risques élevés, dans les domaines touchant des secteurs divers et variés comme le maintien de l’ordre, l’éducation ou encore la formation professionnelle. Des obligations strictes encadreront ces IA, comme la traçabilité des résultats ou leur robustesse en matière de sécurité. 
  • Les risques limités, comme les IA utilisées pour créer des chatbots. Un simple avertissement à l’utilisateur sera nécessaire. 
  • Les risques minimes, comme les IA dans les jeux vidéos ou les filtres anti-spam. Rien n’encadre ces IA qui ne représentent aucun risque. 

Cette nouvelle réglementation s’accompagne d’un plan destiné à accélérer les investissements dans l’IA et à accélérer la mise en œuvre de stratégies nationales. Son financement sera assuré par des programmes existants et une dotation du plan de relance économique européen.

Côté français, la CNIL a réagi à ce projet. Le gendarme en matière de données personnelles a notamment soulevé 4 points d’attention importants :

  • la nécessité de tracer des lignes rouges aux futurs usages de l’IA
  • le défi de l’articulation avec le RGPD
  • l’importance d’une gouvernance harmonisée
  • un accompagnement de l’innovation indispensable

 

Y a-t-il un pilote dans l’IA ?

 

Avec toutes les applications possibles de l’IA, les possibilités, et les risques induits, semblent presque infinis. Où doit-on mettre la limite ? Qui doit endosser le costume de garde-fou ? Les citoyens, les entreprises ou les états ? Les concepteurs des IA savent-ils vraiment ce qu’ils sont en train de créer ?

Les défis à adresser s’annoncent donc à la hauteur du potentiel dévoilé par la technologie. Bon sens, pragmatisme et vigilance seront de rigueur, afin de piloter et d’encadrer cette IA qui se présente d’ores et déjà comme une pierre angulaire de la société de demain.

 

Retrouvez les autres épisodes de notre grand enquête intitulée : « L’IA, une révolution dans l’assurance ? »

Chapitre 1 : Dessine-moi une IA. Réflexion sur les représentations de l’intelligence artificielle

Chapitre 2 : Dis Emilie, une IA, c’est quoi ? Des définitions pour bien comprendre

Chapitre 3 : IA et assurance. La France et ses 4 fantastiques

Chapitre 4 : L’IA à la française, nouvelle recette pour conquérir le monde ?

Chapitre 5 : IA et assurance, je t’aime moi non plus ?

Chapitre 7 : Retour vers le futur ou l’IA en 2030

Chapitre 8 : « L’IA sera(it) le nouveau graal du marketeur ! » – Itw exclusive de Thierry Pires

 

2 commentaires sur cet article. Réagissez !

Commentaires

  1. Je recommande cet article à toute personne intéressée par les enjeux éthiques de l’IA.

    Les Intelligences artificielles impactent déjà sur nos vies.

    Je recommande de mobiliser les ingénieurs ou les concepteurs dans la prise en compte des questions éthiques, et ce, tout au long du cycle de vie d’un système d’IA.

  2. Merci Joel pour ce commentaire