IA : Beijing se dote de guidelines éthiques

Dans la foulée des lignes directrices pour une IA de confiance émises par le HLEG AI et les principes éthiques émanant de l’OCDE, c’est la Chine qui a créé la surprise en publiant en mai 2019 « The Beijing AI Principles » (1).

Ceux-ci se positionnent sur 3 axes :
– La recherche et le développement
– Les usages
– La gouvernance de l’IA
Pour chacun de ces axes, Beijing a défini des mots clés et les a assortis d’une courte description, le tout ne dépassant pas 2 feuilles A4 quand, par exemple, les lignes directrices en matière d’éthique pour une IA digne de confiance commandées par la Commission Européenne couvrent quelques 50 pages.

La recherche et le développement

#DoGood : l’IA doit profiter à l’humanité et à l’environnement.

#ForHumanity : les droits à la vie privée, à la dignité, à la liberté et à l’autonomie doivent être « suffisamment respectés ».

#BeResponsible : chercheurs et développeurs « devraient avoir des considérations suffisantes » pour les potentiels impacts et risques éthiques, légaux et sociaux.

#ControlRisks : ici sont visées la maturité, la robustesse, la fiabilité et la contrôlabilité des algorithmes.

#BeEthical : cet item traite de la confiance dans les systèmes d’IA, à savoir non-discrimination, justice, lutte contre les biais, transparence, explicabilité, prédictabilité, traçabilité, auditabilité, redevabilité…

#BeDiverse&inclusive : l’IA doit bénéficier à un maximum de personnes by design

#Open&Share : une IA ouverte est encouragée


Les usages

#UseWisely&properly : les utilisateurs devraient disposer des nécessaires connaissance et aptitude pour des usages judicieux et corrects qui maximisent les bénéfices et minimisent les risques.

#InformedConsent : « des mesures devraient être prises pour que les parties prenantes aux systèmes d’IA soient suffisamment informées, et consentent aux impacts du système sur leurs droits et intérêts ».

#EducationTraining : les parties prenantes devraient pouvoir recevoir l’éducation pour s’adapter aux impacts psychologiques, émotionnels et techniques des systèmes d’IA.


La gouvernance de l’IA

Cette gouvernance devrait observer les principes suivants :

#OptimizingEmployment : une attitude prudente et inclusive devrait être adoptée face aux importants impacts sur l’emploi des hommes. Exploration de nouvelles formes de travail basées sur le couple homme-machine.

#Harmony&Cooperation : « pluridisciplinarité inter-secteurs, inter-activités, inter-organisations et inter-régions » préconisée pour éviter les effets pervers et pour partager les expériences de gouvernance.

#Adaptation&Moderation : révision adaptative des principes guidant l’IA pour suivre ses développements, pour être certain qu’ils bénéficient à l’humanité et à l’environnement dans le temps.

#Subdivision&Implementation : des champs et scénarios variés d’application de l’IA devraient être pris en considération pour l’élaboration ultérieure de guidelines plus détaillées. L’implémentation de tels principes devraient être activement promue.

#LongTermPlanning : des recherches continues sur les risques potentiels de l’intelligence augmentée, de l’IA forte (AGI) et de la super intelligence devraient être encouragées.

The Beijing AI principles se trouvent synthétisés en un document certes concentré et néanmoins quasi exhaustif en regard des autres guidelines parues à l’international. On retrouve notamment tous les principes humanistes d’équité, d’inclusion, de non-discrimination, de respect des droits fondamentaux,… et ceux liés à l’algorithme : transparence, robustesse, auditabilité,… Quelques principes toutefois font manifestement défaut dans cette comparaison : notamment celui de la protection des données personnelles, sauf à considérer qu’elles entrent dans le cadre de la privacy, soit des principes d’intimité, de vie privée, ou encore et évidemment celui de démocratie tel qu’il apparaît dans plusieurs des 83 autres textes traitant d’éthique de l’IA.

Néanmoins, comme le soulève le Health Ethics and Policy Lab de Zurich à l’origine d’une étude comparative de 84 textes traitant d’éthique de l’IA (2), la richesse de la sémantique et les subtilités de langage sont au rendez-vous. En effet, s’il existe des points de convergence entre tout ou partie des textes, l’analyse révèle également d’importantes divergences sémantiques et conceptuelles. Elle révèle des variations significatives quant à l’interprétation, la justification, les domaines d’application ou encore les modes de réalisation. Ainsi, sous une même terminologie, deux textes ne reflètent pas une même vision du risque encouru, ni du principe éthique en jeu. Dès lors, on peut envisager que la notion de vie privée au pays du crédit social n’ait pas exactement la même acception qu’en Occident. Et ainsi de suite pour chaque principe éthique énoncé.

Sources :

(1) https://www.baai.ac.cn/blog/beijing-ai-principles
(2) The global landscape of AI Ethics guidelines. Health ethics and policy Lab. Department of health sciences and techology. ETH Zurich. Via nature machine intelligence

By | 2019-11-06T21:47:05+01:00 novembre 6th, 2019|Non classé|0 Comments

About the Author:

Leave A Comment

Oops...
If you want to use the PHP function "add_revslider" in your code please make sure to activate "Include RevSlider libraries globally" and/or add the current page to the "Pages to include RevSlider libraries" option in the "Global Settings" of Slider Revolution.