Deepfakes : quand un visage prend la place d’un autre

Le deepfake, cette nouvelle forme d’intelligence artificielle, ouvre de nouvelles portes à la manipulation d’images vidéo. Grâce à des copies presque parfaites de visages, le deepfake posent de nouveaux enjeux au sein d’une société continuellement confrontée à des contenus audiovisuels.

Barack Obama qui insulte le président Donald Trump, Mark Zuckerberg qui avoue manipuler la communauté Facebook ou encore Taylor Swift dans des vidéos un peu olé-olé ? Possible, mais pas réel, grâce à l’utilisation du deepfake. S’il était de coutume de dire qu’il ne faut « croire que ce que l’on voit », les citoyens ne peuvent désormais plus se fier à cet adage. Des algorithmes de plus en plus performants permettent d’incruster, de manière extrêmement réaliste, des visages dans une vidéo pour laquelle les personnes concernées n’ont pas tourné.

Le deepfake, c’est quoi ?

Le terme deepfake provient de la contraction des termes anglais « deeplearning » et « fake ». Il désigne un trucage vidéo réalisé par une intelligence artificielle (IA). Le trucage opéré par un deepfake consiste à incruster un visage sur un autre dans une vidéo, reproduisant dans le même temps les expressions faciales du visage originel de l’extrait. Le deepfake permet donc d’insérer dans une vidéo une personne n’en faisant initialement pas partie.

Comment ça marche ?

Le deepfake fonctionne sur le principe d’un algorithme capable d’incruster un visage sur une vidéo en reproduisant des mimiques et expressions. L’algorithme doit en premier lieu reconnaître les visages à interchanger grâce à la reconnaissance faciale. Il sera ensuite apte à encoder le visage originel et à reconstruire par-dessus lui-ci le visage à incruster. La réussite de cette opération dépend de la qualité de la base de données, composée de vidéos, fournie à l’algorithme. De nombreuses applications et programmes permettent de créer des deepfakes ; DeepFaceLab, ZAO, FaceSwap.

Entre obscénité et parodie

La plupart des deepfakes sont à caractère pornographique. Ainsi, de nombreux trucages vidéo montrent des stars telles qu’Emma Watson, Ariana Grande ou Scarlett Johanson s’adonner à des activités sexuelles. Les célébrités sont les personnes les plus touchées par cette nouvelle technologie. Régulièrement, des personnalités politiques sont également mises en scène dans des discours absurdes ou grossiers. Le deepfake peut néanmoins être utilisé à des fins plus humoristiques, comme dans des parodies.

Il est important d’acquérir des repères en histoire du visuel pour regarder et identifier ce que l’on a sous les yeux. Forger des techniques d’analyse des images, comprendre la façon dont elles se fabriquent

Laurent Gervereau, président de L’Institut des Images

Quel avenir pour le deepfake ?

Le développement technologique permet aujourd’hui de réaliser des trucages et des effets générés par IA de plus en plus réalistes. Le deepfake en est un parfait exemple. Cependant, cette technologie encourage la propagation de fake news et représente une violation du droit à l’image. Devant des algorithmes de plus en plus performants, il est nécessaire de mettre en place des solutions pour détecter ces trucages vidéo d’un nouveau genre, mais également d’encourager les citoyens à être attentifs aux fake news et plus critique vis-à-vis des contenus auxquels ils sont exposés. Les trucages vidéo plus vrais que nature représentent donc une opportunité d’apprendre aux citoyens l’importance de la perplexité et de la remise en question face à une myriade de contenus audiovisuels.

Auteure: Audrey Hess

Sources:

https://medium.com/meetech/ia-deepfake-comment-lindustrie-du-x-a-remodel%C3%A9-notre-rapport-au-r%C3%A9el-99d2065d143d

https://fr.tuto.com/blog/2019/09/deepfake.htm

http://www.leparisien.fr/high-tech/deepfakes-l-image-a-toujours-ete-instrumentalisee-25-10-2019-8180157.php

https://www.geoado.com/actus/deepfakes-quand-les-videos-mentent/

https://nabpilot.org/wp-content/uploads/2019/10/deepfake.jpg

https://uploads.guim.co.uk/2019/06/19/trump_fallon_side.gif


Publié

dans

par

Étiquettes :