L’éthique de l’intelligence artificielle est un sujet qui mobilise actuellement un grand nombre d’acteurs.

Diverses instances émettent principes et guidelines. La communauté internationale (1) a annoncé la recherche d’un consensus. De grands groupes se dotent de comités éthiques. Des experts issus de multiples disciplines et régions du monde débattent et parfois s’opposent. L’encre coule dans la presse et l’éthique de l’IA alimente conséquemment les réseaux sociaux.

Assurément, il s’agit de l’un des sujets IA du moment. Voire, pour Gerd Leonhard (2), « the 1rst topic AI in 2019″.

Alors de quoi parle-t-on exactement ? Est-ce un débat philosophique et théorique, une volonté de freiner l’innovation comme on le lit parfois, ou est-ce une réelle gageure à relever en matière d’IA ?

La problématique des biais

Aujourd’hui, un des aspects éthiques de l’IA largement médiatisé auprès du grand public est celui inhérent aux biais.

En effet, l’état de l’art a révélé des failles.

Une des causes ? Le facteur humain

En effet, produire et éduquer un algorithme confère à son/ses auteurs un impact sur les schémas que le code va mettre en œuvre. Le codeur, les personnes qui étiquettent les images, celles qui ont alimenté les bases de données d’apprentissage… chacun représente un ensemble de croyances, désirs, états mentaux, buts, plans…

Or, ces caractéristiques intrinsèques vont affecter involontairement le code et, par conséquent, les résultats produits par l’algorithme. Deux manifestations criantes en la matière sont les biais sexistes et raciaux.

De nombreuses personnalités reconnues dans le domaine de l’IA œuvrent chaque jour à dénoncer ces biais. Pour la France, je ne citerai que Laurence Devillers (3), Professor of AI & ethics @Sorbonne University / @CNRS Limsi.

Zoom sur les biais humains

« Le biais humain consiste en une distorsion que subit une information en entrant dans le système cognitif ou en sortant » (4)

Les « filtres » que nous mettons en oeuvre, ici appelés biais, sont issus de notre cognition.

« La cognition est l’ensemble des processus mentaux qui se rapportent à la fonction de connaissance et mettent en jeu la mémoire, le langage, le raisonnement, l’apprentissage, l’intelligence, la résolution de problème, la prise de décision, la perception ou l’attention ». (Wikipedia).

« The Cognitive Bias Codex » par John Manoogian

Ce sont plus de 180 biais humains
répertoriés et déployés ici en 4 cadrans :
– mémoire
– sens
– trop d’informations
– besoin d’agir vite

Cette compilation des biais issus du système cognitif  nous donne la mesure du phénomène (5). Son ampleur révèle toute la difficulté attachée à la détection et à la correction des « effets de bord » induits au sein des algorithmes.

Autre facteur : les biais imputables « à la machine »

Par exemple, des candidats répondant favorablement aux critères d’emprunt d’un établissement bancaire se sont vu refuser leur prêt. Le motif du rejet de leur dossier ? Leur lieu d’habitation, ou encore leur appartenance ethnique. Deux facteurs estimés « à risque », puis érigés en critères de non-éligibilité par l’algorithme dans son traitement des dossiers.

Pourquoi ? Parce que les jeux de données sur lesquels a reposé son apprentissage intègrent majoritairement ces données dans les refus de crédit. In fine, l’algo n’a fait que reproduire les critères (volontaires ou non) mis en oeuvre par les personnes ayant préalablement traité les dossiers dont il a été « nourri ».

« Le biais algorithmique est une erreur faite systématiquement sur certains individus et qui les place à un désavantage systématique » (4)

Autre exemple. En date du 13 août 2019, la MIT Technology Review (6) fait état de biais raciaux mis en oeuvre par Perspective, l’API de Google. Cet outil a pour mission première de détecter les propos toxiques tenus dans les conversations en ligne.

Or, des tests de performance (US) ont montré les mêmes écarts que ceux issus d’autres algorithmes entraînés à la détection de propos haineux sur des bases de données constituées de millions de tweets. A savoir que les messages émis par des afro-américains étaient davantage identifiés comme offensants.

Une des causes identifiées réside dans l’impossibilité pour l’algorithme de saisir la nuance selon l’émetteur. En effet, dans cet exemple du tweet raciste, l’interprétation peut être toute différente selon que le texte émane d’une personne appartenant à la communauté afro-américaine ou d’un suprématiste blanc; d’une personne qui subit ou d’une qui souhaite effectivement proférer un message haineux. Un modérateur humain saisirait le degré d’ironie ou de réalisme du message. L’algorithme, lui, ne le peut pas.

De grandes entreprises s’emparent également du sujet

IBM, Microsoft, Salesforce… ont créé en leur sein des comités éthiques. Seul Google a échoué, son comité ayant été dissous le jour-même de son officialisation, certains membres étant soupçonnés d’avoir manqué d’éthique dans d’autres domaines.

Ces acteurs ont un réel rôle à jouer en qualité de créateur de solutions d’intelligence artificielle.

Des initiatives émergent. Pour exemple, IBM Research publie dans la communauté open source
une boîte à outils de détection et d’atténuation des biais de l’IA (4).
IBM entend proposer également « des moyens et une formation visant à encourager la collaboration mondiale pour lutter contre les biais de l’IA » (7).

Pour autant, les questions éthiques liées à l’IA ne résident pas seulement dans la discrimination et la correction des biais inhérents. D’autres carences ont déjà vu le jour, et de nombreux aspects s’avèrent centraux : transparence, robustesse ou encore sécurité des algorithmes ne sont que quelques exemples (8). De plus, les usages de l’intelligence artificielle ouvrent un champ des possibles sans ligne d’horizon. Aussi la définition et le respect de principes éthiques en matière d’IA constituent-t-ils des prérequis précieux. Ils visent à prévenir les risques non anticipés par leurs auteurs et les mésusages. Ils constituent une garantie au service du respect de l’être humain.

Sources :

(1) Initiative annoncée lors du World Economic Forum 2019.
https://fr.weforum.org/events/world-economic-forum-annual-meeting/programme

(2) Gerd Leonhard. « Why digital ethics is topic #1 in 2019 »
https://www.youtube.com/watch?v=Fy0w1nRvgYU#action=share

(3) Laurence Devillers, auteure de « Des robots et des hommes. Mythes, fantasmes et réalité ». Editions Plon https://www.linkedin.com/in/laurence-devillers-4041899/

(4) Rachel Orti, Tech Lead/Dev. Mélanie Shilpa Rao, Cloud Engineer. IBM Cloud and Cognitive Software.
Conférence « Les biais de l’IA Les moyens pour les détecter & les compenser ». AIParis 2019

(5) John Mannougian. The cognitive bias codex.
https://fr.wikipedia.org/wiki/Fichier:The_Cognitive_Bias_Codex_(French)_-_John_Manoogian_III_(jm3).svg

(6) www.technologyreview.com : buff.ly/2H2vG40

(7)« IBM franchit une étape majeure en ouvrant la boîte noire de l’IA »
https://newsroom.ibm.com/2018-09-19-IBM-Takes-Major-Step-in-Breaking-Open-the-Black-Box-of-AI

(8) Ces qualités attendues des algorithmes se retrouvent dans l’ensembles des principes, recommandations et guidelines émis à ce jour : OCDE, Commission européenne (AI HLEG*), CNIL, déclaration de Montréal…
* https://www.linkedin.com/pulse/rencontre-avec-le-groupe-dexperts-de-haut-niveau-sur-marina-ehrhart/