Le deepfake, c’est une technique d’intelligence artificielle qui permet de rendre « profondément crédibles » des contenus faux, principalement des vidéos. C’est avec ce procédé que certains hackers du dimanche arrivent à coller le visage de personnes, connues ou non, sur le corps d’autres individus — avec un réalisme déconcertant.
Utilisée sur des contenus X, cette diablerie technologique est encore plus effrayante. Sur Internet, les vidéos mettant en scène des célébrités dans des situations parfois rocambolesques et érotiques fleurissent ; pour le commun des mortels, l’issue est tout aussi terrible question consentement, les deepfakes étant les outils parfaits pour fabriquer du revenge porn à la pelle, avec un subterfuge parfois difficile à détecter même par un oeil expert.
Et, mauvaise nouvelle, cette technique devient de plus en plus accessible et de plus en plus réaliste.
Le deepfake à portée de clic
Avant, si vous espériez — pour je ne sais quelle obscure raison — coller le visage d’un individu sur le corps d’un autre dans une vidéo de manière réaliste et sans glitchs suspects, il fallait être un ou une experte. Aujourd’hui, plusieurs applications et tutos permettent de produire des effets troublants de vraisemblance sans nécessiter aucune compétence particulière en informatique.
Il existe tout un tas d’applications qui permettent d’échanger les visages en les plaçant dans des scènes de films cultes ou dans des vidéos virales. Les traits du visage choisi se morphent alors à ceux sur lesquels ils sont greffés et se meuvent en harmonie avec les mouvements du comédien.
Les résultats sont parfois si réalistes que des plateformes ont été spécifiquement créées pour détecter les supercheries. Une prouesse technologique qui forcerait l’admiration si elle n’était pas souvent utilisée à mauvais escient…
« Je t’ai vue dans un porno »
Tout s’est emballé sur Reddit, où un internaute a popularisé une technique permettant de coller le visage de célébrités féminines sur des vidéos pornographiques. En 2019, la plateforme Sensity AI estimait déjà que les vidéos pornographiques non consensuelles représenteraient 96% de toutes les vidéos deepfake confondues.
Que vous utilisiez cette technique de manière bon enfant pour greffer virtuellement la tête de votre meilleure pote sur une Beyoncé qui se déhanche sur scène, aucun souci. Mais quand le deepfake touche aux contenus pour adultes, les conséquences sont tout de suite moins anodines…
Car retrouver son visage sur le corps d’une actrice porno qui se fait prendre en sandwich sans qu’on n’ait rien à voir avec l’industrie du sexe, ça fait tout drôle. Peut en témoigner cette Australienne qui a découvert un beau matin que ses photos avaient été accolées à des contenus pornographiques.
Avant tout, cette forme de revenge porn boostée par la technologie pose les questions du consentement et du droit à l’image. Et les conséquences peuvent aller loin — parfois jusqu’au harcèlement et à la destruction de la réputation des personnes impliquées contre leur gré.
C’est ce qui inquiète le chercheur Henry Ajder, qui confie au magazine Jezebel avoir trouvé un site en particulier qui « permettait aux utilisateurs de télécharger une photo du visage d’une personne et de produire une vidéo pornographique très fidèle à la réalité. »
Karen Hao, rédactrice en chef au MIT Technology Review, s’est intéressée à l’impact psychologique pour les femmes visées par ces faux contenus. Elle écrit :
« Sur le plan psychologique, ces vidéos peuvent être ressenties comme aussi violentes que le revenge porn (de vraies vidéos intimes filmées ou diffusées sans consentement). »
Si la plupart de ces services ont été mis hors ligne et que les grosses plateformes de contenus X comme Pornhub prétendent interdire ce genre de vidéos, les codes étant toujours en open source, ils refont simplement surface sous d’autres formes…
Pire, la justice ne semble pas vraiment pencher du côté des victimes puisque la loi reste encore très floue à ce sujet. Selon un article du Huffington Post, pour les personnes touchées, c’est presque peine perdue :
« Les poursuites peuvent coûter extrêmement cher. Et pour intenter une action en justice pour harcèlement, usurpation d’identité, diffamation ou détournement d’image — qui ne concerne généralement que les célébrités —, il faut d’abord savoir qui poursuivre. »
Plus troublant encore, les experts mettent en garde et prévoient un détournement de ces techniques dans le but de diffuser des fake news et de semer le trouble en politique.
Ne croyez donc pas tout ce que vous voyez !
À lire aussi : Le porno avec des stars incrustées dedans n’est pas le bienvenu sur Internet
Crédits photos : Andrea Piacquadio et Soumil Kumar (Pexels)
Et si le film que vous alliez voir ce soir était une bouse ? Chaque semaine, Kalindi Ramphul vous offre son avis sur LE film à voir (ou pas) dans l’émission Le seul avis qui compte.
Les Commentaires