Un procès et un verdict historiques. Au Royaume-Uni, un homme de 48 ans, mis en cause pour la création de plus d’un millier d’images pédopornographiques, a été condamné par la justice à une interdiction d’utiliser des outils d’intelligence artificielle générative pour les cinq prochaines années. Cette décision, première du genre, intervient alors que les associations alertent depuis plusieurs mois sur les dérives de l’IA et la prolifération d’images d’abus sexuels générées par ces outils.
Mi-avril, le gouvernement britannique a même annoncé la création d’une nouvelle infraction, qui condamnera la confection de deepfakes sexuellement explicites impliquant des personnes de plus de 18 ans sans leur consentement. Les coupables s’exposeront à des poursuites judiciaires et à une amende illimitée, voire à de la prison si l’image est ensuite diffusée.
Une décision inédite
Sans l’accord préalable des forces de l’ordre, l’homme de 48 ans n’a donc plus le droit « d’utiliser, de visiter ou d’accéder » à des outils tels que des générateurs texte-image, qui permettent de créer des images réalistes à partir d’une commande écrite, ni d’aller sur des sites web « déshabillants », utilisés pour créer des deepfakes à caractère sexuel.
Il a également reçu l’ordre explicite de ne pas recourir au logiciel Stable Diffusion, dont de précédentes audiences tenues au Tribunal d’instance de Poole démontrent que l’outil a déjà été employé par des pédocriminels dans le but de créer du matériel hyperréaliste d’abus sexuel d’enfants.
Au Royaume-Uni, les délinquants sexuels sont depuis longtemps soumis à des restrictions en matière d’utilisation d’internet, comme l’interdiction d’utiliser la navigation privée, d’accéder à des applications de messagerie cryptées, ou d’effacer leur historique internet. C’est en revanche la première fois que des restrictions sont imposées sur l’utilisation d’outils d’intelligence artificielle. Une première fois qui pourrait ouvrir la voie à de nouvelles manières de surveiller les pédocriminels condamnés.
Il n’est pas clair si l’homme de 48 ans avait utilisé l’IA pour produire les contenus qui lui ont valu une condamnation, ou s’il s’agit d’une mesure préventive, face à l’utilisation accrue de ces outils à des fins (pédo)pornographiques.
Un arsenal législatif en évolution
Depuis les années 1990, la création, la possession et le partage de matériel pédopornographique artificiel sont déjà interdits par la loi, rappelle le Guardian.
Cette dernière décennie, ces lois ont été appliquées plusieurs fois pour condamner des délits impliquant des images réalistes, réalisées notamment avec Photoshop. Des cas récents suggèrent que cette loi est de plus en plus utilisée pour faire face à la menace posée par des contenus artificiels sophistiqués. Rien que l’année dernière, six personnes sont passées devant la justice pour avoir possédé, fabriqué ou partagé des « pseudo-photographies » – certaines générées par l’IA.
Mais il reste difficile de recenser précisément combien d’affaires ont impliqué des images d’intelligence artificielle, puisque celles-ci ne sont pas comptabilisées séparément dans les données officielles, et que certaines fausses images restent pratiquement impossibles à distinguer des vraies.
L’année dernière, souligne le Guardian, une équipe de l’Internet Watch Foundation (IWF) s’est infiltrée dans un forum d’abus d’enfants sur le dark web et a trouvé 2 562 images artificielles si réalistes qu’elles seraient traitées par la loi comme si elles étaient réelles.
Susie Hargreaves, directrice générale de l’IWF, a déclaré à nos confrères britanniques que si les images d’abus sexuels générées par l’IA représentaient actuellement une proportion « relativement faible » des signalements, on assistait à une « augmentation lente mais continue » des cas, et que certains de ces documents étaient « très réalistes ». « Nous espérons que les poursuites engagées enverront un message clair à ceux qui fabriquent et distribuent ce type de contenu ».
Vous aimez nos articles ? Vous adorerez nos newsletters ! Abonnez-vous gratuitement sur cette page.
Les Commentaires
C'est pas vraiment comme ça que fonctionne l'IA c'est le problème. Il n'y pas besoin de lui montrer des vrais enfants dénudés pour qu'elle puisse générer des enfants dénudés. C'est ce que les gens ne comprennent pas.
L'IA apprend comme un cerveau humain, le modèle va comprendre le concept de nudité et d'enfants et pourra simplement mettre les deux ensemble sans avoir besoin d'images illégales. On peut aussi utiliser de fausses images pour entrainer un modèle.
Donc avec de la pornographie "légale" et des images d'enfants habillés, il est possible de générer du contenu illégal. Les modèles utilisés par monsieur/madame tout le monde ne sont pas des modèles qu'on entraine avec des images illégales, sinon la plupart des sites qui distribuent ces modèles seraient déjà fermés. Alors j'imagine qu'au fin fond du Darkweb il doit y avoir des modèles spécialement entrainés sur des contenus pédocriminels, mais je vois pas qui va distribuer un tel modèle gratuitement, ça couterait probablement une fortune, il faut pas oublier aussi que la pédocriminalité c'est avant tout un commerce.
Un modèle d'IA ne possède aucune information spécifique sur une personne particulière par exemple, c'est pas une sorte de collection d'images à partir de laquelle on crée une nouvelle image non. Il faut voir ça comme un cerveau humain, par exemple même sans avoir jamais vu de crocodile à 3 têtes je peux imaginer, voir dessiner (si j'en avais les compétences) des crocodiles à 3 têtes. Ou par exemple j'entraine mon IA avec des tableaux de Cézanne, je lui donne aussi des photos de chat·te·s, puis je demande un·e chat·te peint·e par Cézanne, l'IA sera capable de le sortir même si Cézanne n'a jamais peint de chat·te. C'est la même chose pour les contenus pédocriminels.
@Ariel du Pays Imaginaire Ca ne sera pas respecté, ça fait un moment que ce genre de peines existent au RU (interdiction de réseaux sociaux, voir même d'internet) et c'est quasi impossible pour la police à contrôler. Maintenant la peine a le mérite d'exister, c'est bien je pense d'avoir une loi car ça permet d'en dissuader certain·e·s.