Source : FreeImages – Barack Obama DeepFake

Le Deepfake, c’est quoi ?

Appelé en français hypertrucage, le mot Deepfake est une contraction entre « Deep Learning » (apprentissage profond) » et « Fake » (faux). Un deepfake est un faux, quelle que soit la nature du contenu : vidéo, photo, audio ou texte, conçu grâce à l’intelligence artificielle.

Le nom « Deepfakes » est tout d’abord lié au pseudonyme du développeur qui est le premier à posté , fin 2017, des vidéos truquées à caractère pornographique intégrant les visages de célébrités sur le forum Reddit et à connaître une popularité massive

Comment ça fonctionne ?

Les Deepfakes reposent sur la technique des GAN (Generative Adversarial Networks ou réseaux antagonistes génératifs) inventée en 2014 par le chercheur Ian Goodfellow.

Il s’agit d’une technique de Machine Learning consistant à mettre en compétition deux algorithmes.

À partir d’images fournies en amont, le premier algorithme « générateur » cherche à créer de fausses imitations aussi crédibles que possible.

Le second algorithme « discriminateur », quant à lui, cherche à détecter les faux le plus efficacement possible. Les deux algorithme progressent dans leurs tâches respectives. Le premier continues à produire de fausses vidéos jusqu’à ce que le second ne puisse plus déceler la supercherie.

Plus les données fournies à l’algorithme au début du processus sont nombreuses, plus celui-ci sera capable d’apprendre à créer des faux facilement. C’est la raison pour laquelle les célébrités sont souvent utilisés pour créer des Deepfakes : de nombreuses vidéos d’archives sont en libre accès et peuvent être utilisées pour nourrir les modèles de Machine Learning.


Le Deepfake, un danger ?

En avril 2018, Jordan Peele et Jonah Peretti ont montré les dangers de l’hypertrucages en créant une fausse vidéo de Barack Obama faisant une annonce publique (voir vidéo ci au dessus).

Centres de recherche universitaires, start-up, gouvernements et médias se mobilisent autour d’un même objectif : identifier les deepfakes, mais avec la même crainte de se lancer dans un « jeu du chat et de la souris », comme l’exprime Francesco Marconi, responsable R&D du Wall Street Journal.

La propagation des outils permettant de fabriquer des deepfakes serait donc une menace pour tous. En août 2019, le Wall Street Journal relatait qu’une entreprise avait été victime d’une tentative d’extorsion de fonds par des escrocs ayant utilisé une voix artificielle, imitant celle du PDG.

À terme, selon Solange Ghernaouti, spécialiste en cybersécurité et cyberdéfense, l’idéal serait que les images et vidéos numériques soient dotées de tatouages numériques dans le but de lever le voile sur l’origine du contenu. Des logiciels, tels que InVid et Amnesty Youtube Dataviewer, un outil proposé, depuis 2014, par l’organisation non gouvernementale internationale Amnesty International, permettent aux journalistes de déterminer si une vidéo est truquée ou manipulée

En septembre 2019, Google a rendu publiques plus de 3 000 vidéos vraies et fausses réalisées avec des acteurs issues de sa DeepFake Detection Dataset. Par ailleurs, les groupes américains de la tech et des institutions universitaires ont lancé un « deepfake challenge » en septembre 2019. Financée à hauteur de 10 millions de dollars par Facebook, cette initiative, qui vise à trouver des solutions anti-deepfakes, regroupe notamment les géants Apple, Amazon, Microsoft, IBM, ainsi que le MIT et l’université d’Oxford.

Sources :

https://www.lebigdata.fr/deepfake-tout-savoir

https://www.francetvinfo.fr/monde/chine/intelligence-artificielle-le-deepfake-fait-peur_3610805.html

https://fr.wikipedia.org/wiki/Deepfake

https://www.lesnumeriques.com/vie-du-net/facebook-et-microsoft-partent-a-la-chasse-aux-deepfakes-n140117.html