L’intelligence artificielle favorise-t-elle les inégalités ?

L’intelligence artificielle favorise-t-elle les inégalités ?

Dans un monde où s’amorce de façon plus ou moins rapide une transformation numérique fondamentale, il est important de comprendre et de cerner certains risques que peuvent engendrer les nouvelles technologies dans nos vies quotidiennes, notamment avec l’essor de l’intelligence artificielle. Demain serons-nous tous égaux face à ces technologies ? Ont-elles un regard impartial face à tous les individus ?

Intelligence artificielle et big data

L’intelligence artificielle et le Big Data

Pour mieux comprendre les risques potentiels de l’intelligence artificielle, il faut revenir aux fondamentaux : d’où vient l’intelligence artificielle?

Il est nécessaire de se rappeler que l’intelligence artificielle c’est un ensemble de données que les ordinateurs vont analyser et qui vont permettre par la suite l’automatisation des décisions, ce qu’on appelle le Machine Learning. Cette technologie permet à l’IA d’apprendre sans pour autant avoir été programmée de façon explicite en amont. L’intelligence artificielle sera donc en capacité de réaliser des analyses prédictives grâce aux statistiques issues de ces datas. L’IA et le Big Data sont donc intimement liés : plus les données sont nombreuses, plus l’intelligence artificielle est aboutie au point même que l’on vienne à parler de Big Data Intelligence.

“Les données disponibles sont de plus en plus nombreuses, et les algorithmes s’améliorent, permettant davantage d’automatisation et de meilleures prédictions.”

Amazon et son logiciel de recrutement

Le géant du commerce en ligne, Amazon, a lancé en 2014 un algorithme dans le but de sélectionner automatiquement les futurs collaborateurs à embaucher dans l’entreprise. Ce robot basé sur l’intelligence artificielle a été pendant trois ans en charge du recrutement avant qu’Amazon se rende compte qu’il écartait systématiquement les femmes lors de l’embauche et n’arrête l’expérimentation.

recrutement-intelligence-artificielle

 

 

Le principe de ce robot recruteur était d’examiner les candidatures et d’attribuer une note de 1 à 5 étoiles à leur profil en fonction du poste à pourvoir. L’algorithme prenait également en compte l’historique de recrutement d’Amazon à savoir une majorité d’hommes depuis les dix dernières années. Ces données ont amené le logiciel de recrutement à écarter les femmes car le système en était venu à déduire que des profils masculins étaient préférables pour ces postes.

“Comment s’assurer que l’algorithme est juste, vraiment interprétable et explicable? On en est encore assez loin.”

Après cette tentative, Amazon a dans un premier temps revu et modifié les critères pour qu’ils ne soient plus discriminatoires et empêcher que l’expérience ne se réitère avant de renoncer définitivement à l’utilisation de ce logiciel manquant de fiabilité. Cet échec a mis en lumière les limites actuelles de l’apprentissage automatique. Selon Nihar Shah, enseignant à la Carnegie Mellon University, il reste encore beaucoup de choses à faire avant de proposer une intelligence artificielle impartiale et juste.

Le MIT veille à la réduction des inégalités

Reconnaissance faciale et vocale, enceintes connectées sont autant de technologies qui ont envahis notre quotidien. C’est pourquoi des chercheurs du MIT, Massachusetts Institute of Technology, tentent de réduire les inégalités que ces dernières peuvent apporter. Le MIT veille entre autre à contrer les risques engendrés par les algorithmes de l’IA en luttant contre les préjugés raciaux des systèmes de détection de visages par exemple. Certaines discriminations ont également été remarquées suite à l’utilisation d’enceintes connectées Alexa et Google qui s’avèrent défaillantes lorsqu’une personne parle avec un accent qui n’est pas américain.

“Les intelligences artificielles ont 30% moins de chance de comprendre les accents non américains.”

Reconnaissance facile

L’intelligence artificielle et le big data sont des technologies en plein développement qui vont révolutionner fondamentalement les domaines de l’industrie, de la médecine, de la science, c’est pourquoi il faut anticiper les dérives que celles-ci peuvent provoquer.

L’intervention humaine reste nécessaire et même indispensable à la bonne configuration et au bon développement des algorithmes et de la data qui sont le coeur des technologies et des objets connectés que nous utilisons à longueur de journée. L’analyse de données reste complexe et pour le moment, l’IA est encore dans l’incapacité de corriger ce type d’erreurs mais ce n’est que temporaire puisque le machine learning tend à auto-former les technologies sur les erreurs et les bonnes pratiques à effectuer. L’automatisation de la prise de décision devient peu à peu la norme et c’est pourquoi les problèmes qui concernent l’éthique de l’IA doivent être révolus rapidement.

“Les systèmes capables d’apprendre de manière autonome, chargés de déterminer quel Big Data doit être identifié et utilisé, vont nécessiter une gestion humaine, tout du moins dans un premier temps.”

Sources : Le Big Data, Siecle Digital

#LéaTavernier #Amazon #IA

By | 2019-02-06T11:34:58+00:00 February 6th, 2019|Robots & IA, Tech & Innovation|0 Comments

About the Author:

Diplômée de l’#EDHEC, étudiante en Digital au #MBADMB de Lyon. Intéressée par la #transfoNum #socialmedia #IA #VR #AR #Marketing #Retail.

Leave A Comment