Une scène d’horreur. Alors qu’elle effectuait un trajet en voiture avec son conseil, la démocrate Alexandria Ocasio-Cortez, plus jeune représentante jamais élue au Congrès des États-Unis, a eu la traumatisante expérience de découvrir qu’elle était victime de Deepfake Porn, une technique de synthèse multimédia qui utilise l’intelligence artificielle pour superposer le visage d’une personne à des images pornographiques déjà existantes. Dans une interview accordée au magazine Rolling Stone, elle s’est livrée sur cette cyberviolence d’une cruauté inouïe.
Les deepfakes n’ont rien « d’imaginaires »
La parlementaire a expliqué qu’être confrontée à une représentation d’elle-même en train d’accomplir un acte sexuel lui a fait réaliser que voir son image détournée à des fins pornographiques n’est pas du tout aussi abstrait ou « imaginaire que ce que les gens veulent bien nous faire croire ». Citant des études sur le sujet, AOC a rappelé que le cerveau humain a beaucoup de difficultés à différencier le vrai du faux, même lorsqu’il sait que ce qu’il analyse est faux. Elle a ajouté s’être repassé les images en boucle dans sa tête le reste de la journée.
« C’est choquant de voir des images de soi que quelqu’un d’autre pourrait penser être réelles », a abondé Alexandria Ocasio-Cortez à Rolling Stone. « En tant que survivante d’une agression sexuelle physique, cela ajoute un niveau de dysrégulation. Cela fait resurgir un traumatisme, alors que je suis… au milieu d’une putain de réunion ». Selon elle, « digitaliser cette humiliation violente » s’apparente à commettre un viol physique, et fort est à parier que « certaines personnes iront jusqu’au suicide après en avoir été victime ».
Un arsenal législatif insuffisant
Au début de l’année, un vague de deepfakes pornographiques avait pris pour cible la chanteuse américaine Taylor Swift, remettant sur le devant de la scène l’urgente nécessité de réguler cette pratique dangereuse, qui passe aujourd’hui totalement entre les mailles du filet juridique. Comme le rappelle le Guardian, Ocasio-Cortez soutient d’ailleurs une loi du Congrès – connue sous le nom de Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024 – visant à permettre « aux victimes de pornographie IA non consensuelle de poursuivre plus facilement les éditeurs, les distributeurs et les consommateurs de contrefaçons numériques classées X ».
En France, de nombreuses personnalités féminines publiques, telles que Salomé Saqué ou Léna Situations, ont également été victimes de ce mode de cyberviolence, qui ne vise pas tant à tromper les utilisateurs (amenés à penser qu’il s’agit d’images réelles), mais bien à exercer un contrôle sur le corps des femmes, comme l’explique la journaliste Lucie Ronfaut dans un article publié sur le site de Numerama.
En France aussi, pourtant, la loi reste faillible face à ce fléau. Comme il est aujourd’hui extrêmement difficile d’identifier les auteurs de ces deepfakes, il reste quasi impossible de les punir avec l’arsenal juridique actuel.
Ajoutez Madmoizelle à vos favoris sur Google News pour ne rater aucun de nos articles !
Les Commentaires
C'est juste vraiment avant qu'il aurait fallu se réveiller, maintenant et effectivement, les IA se retrouvent déjà partout et on est plus proche de "hydre" que de far west. Tu coupes une tête, tu en retrouves deux, parce que ça s'est popularisé à une vitesse assez folle en peu de temps. Que la sphère politique ne réalise que maintenant qu'il est peut-être temps de réguler tout ça, ben c'est déjà trop tard et je suis même plutôt abasourdie par le temps qu'ils leur a fallu pour se réveiller sur le sujet. Vraiment. A ce stade, j'espère plutôt qu'ils vont essayer de miser sur des lois punissant sévérement l'usage d'IA comme les deepfake lorsque c'est pour causer du tort à une personne, ou d'interdire la reproduction voix/visage sans accord signé, plutôt que juste des lois pour restreindre l'usage des IA parce que ça, c'est clairement pas suffisant.