Une séquence pornographique où l’on voit un corps dénudé, qu’on ne reconnaît pas, mais dont le visage nous est familier. Le nez, la bouche, les yeux… Il n’y a pas de doute, c’est le nôtre.
Ce cauchemar d’une violence inouïe est devenu réalité pour Lena Mahfouf, alias Lena Situations dans le cinquième épisode de ses vlogs d’août. « C’est horrible, c’est vraiment dégueulasse » s’exclame la créatrice de contenus en découvrant qu’elle est victime de deepfake porn. En quoi consiste cette pratique illégale, et que dit la loi à ce sujet ? Éclairage.
Qu’est-ce qu’un deepfake ?
Le deepfake, ou « hypertrucage » en français, est une technique de synthèse multimédia qui utilise l’intelligence artificielle pour superposer des fichiers vidéos ou audio sur d’autres dans le but de tromper l’utilisateur qui les regarde. En bref, le deepfake fonctionne comme un montage photo mais animé, donc beaucoup plus réaliste.
On parle de deepfake porn lorsque le visage d’une personne est superposé à des images pornographiques déjà existantes. Comme le rappellent nos consoeurs du ELLE, selon une étude réalisée en 2019 par la société néerlandaise Sensity, spécialisée dans l’IA, « 96% des fausses vidéos en ligne sont de la pornographie non consensuelle et la plupart d’entre elles représentent des femmes : des célébrités comme la chanteuse Taylor Swift et l’actrice Emma Watson, mais aussi énormément de femmes qui n’occupent pas le premier plan médiatique. »
Cette technologie dangereuse est l’outil parfait pour fabriquer du revenge porn à la pelle, avec un subterfuge parfois difficile à détecter même par un œil expert.
D’où vient cette technologie ?
Selon le site du gestionnaire de base de données Oracle, on doit la création du deepfake à une technique inventée en 2014 par le chercheur Ian Goodfellow :
Il s’agit du GAN (Generative Adverarial Networks). Selon cette technologie, deux algorithmes s’entraînent mutuellement : l’un tente de fabriquer des contrefaçons aussi fiables que possible ; l’autre tente de détecter les faux. De cette façon, les deux algorithmes s’améliorent ensemble au fil du temps grâce à leur entraînement respectif. Plus le nombre d’échantillons disponibles augmente, plus l’amélioration de ceux-ci est importante.
Le phénomène du deepfake est officiellement né à l’automne 2017 et est apparue sur le site web Reddit. Depuis 2017, le nombre de deepfakes augmente considérablement. D’après les chercheurs de la société Deeptrace, le nombre de vidéos deepfakes trouvées en ligne en 2019 étaient d’environ 15 000, contre un peu moins de 8000 vidéos recensées un an auparavant.
Le plus inquiétant dans tout cela est qu’il ne faut aucune connaissance informatique particulière pour réaliser un deepfake. Plusieurs applications et tutos permettent de le faire facilement, avec un résultat à s’y méprendre.
2019 a marqué un tournant dans l’histoire du deepfake pornographique, lorsqu’un internaute Reddit a popularisé sur le forum une technique permettant de coller le visage de célébrités féminines sur des vidéos pornographiques.
À lire aussi : Juju Fitcats dénonce les photomontages pornos que subissent trop de créatrices de contenus
Les deepfakes sont-ils punis par la loi française ?
Cette technologie pose les questions du consentement et du droit à l’image. Considéré comme une forme de cyberharcèlement, l’impact psychologique n’est pas négligeable, comme l’analyse Karen Hao, rédactrice en chef au MIT Technology Review, qui s’est intéressée au ressenti des victimes de ces faux contenus. Elle écrit :
« Sur le plan psychologique, ces vidéos peuvent être ressenties comme aussi violentes que le revenge porn (de vraies vidéos intimes filmées ou diffusées sans consentement) »
Pour autant, la loi peine à réguler le sujet. Depuis 2002, l’article 226-8 du Code pénal prévoit qu’il « est puni d’un an d’emprisonnement et de 15 000 euros d’amende le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention. »
Mais, comme il est aujourd’hui extrêmement difficile d’identifier les auteurs de ces deepfakes, il est quasi impossible de les punir.
Vous aimez nos articles ? Vous adorerez nos podcasts. Toutes nos séries, à écouter d’urgence ici.
Les Commentaires
peut-être même quand ça vient d'une source sérieuse malheureusement....
Les médias utilisent déjà des images/sons pour les mettre dans un autre contexte et faire croire certaines choses, et il y a déjà une éducation en ligne qui se met en place pour vérifier les sources (je pense aux très bonnes vidéos de Défékator sur Youtube.)