Tout commence en mars 2022 et avril 2023. L’ONG Global Witness teste le réseau social en publiant cinq publicités « à l’intitulé et au contenu volontairement neutre ». Le but ? Mettre en avant des annonces pour des postes de secrétaire, pilote de ligne, auxiliaire petite enfance, psychologue et responsable d’une structure informatique.
Des algorithmes biaisés
Et là, surprise (ou pas) : 94 % des personnes ciblées pour le poste d’auxiliaire petite enfance sont des femmes, 92 % pour celui de secrétaire et 80 % pour le poste de psychologue. En revanche, l’offre d’emploi pour le job de pilote de ligne a été suggérée à 85 % d’hommes, et celle de responsable d’une structure informatique à 68 % d’utilisateurs masculins.
Conclusion : les algorithmes de Facebook, qui se chargeaient entièrement de la diffusion et du ciblage de l’audience, ont présenté les postes estimés « à responsabilité » aux internautes masculins, et les métiers relevant du care aux femmes. « Lors de la publication d’offres d’emploi sur Facebook, l’algorithme du réseau social opère a posteriori une discrimination sexiste et stéréotypée dans les personnes cibles », martèlent les trois associations dans un communiqué publié le 12 juin.
Le recrutement par les réseaux sociaux, une pratique qui se généralise
« Aujourd’hui, 53 % des PME déclarent utiliser le recrutement en ligne et 82 % des demandeurs d’emploi cherchent à se faire recruter via les réseaux sociaux », poursuivent les trois associations, qui affirment par ailleurs que la discrimination opérée par les algorithmes de Meta est « illégale ». Les algorithmes qui diffusent ces annonces sur les réseaux sociaux constituent donc un terrain crucial dans la lutte pour l’égalité d’accès à l’emploi : « Les tests montrent que les algorithmes de Facebook écartent a posteriori et contre la volonté des recruteurs les femmes d’opportunités d’emploi qui sont par ailleurs mieux rémunérées ».
Les trois associations souhaitent obtenir la reconnaissance d’une « discrimination à l’embauche fondée sur le sexe » auprès de la Défenseure des droits et « l’infraction potentielle avec le règlement général sur la protection des données (RGPD) car ce texte exige que le traitement des données soit loyal, ce qui n’est pas le cas d’un traitement des données discriminant ».
Interrogé par notre consœur de Libération, Meta, maison mère de Facebook, s’est défendu faiblement :
« Nous n’autorisons pas les annonceurs à cibler ces publicités en fonction du sexe ». Des annonceurs qui ne sont ici pas en cause. Le groupe ajoute : « Nous continuons à travailler avec des parties prenantes et des experts du monde universitaire, des groupes de défense des droits de l’homme et d’autres disciplines sur les meilleures façons d’étudier et d’aborder l’équité algorithmique ».
La solution paraît pourtant évidente : si nos algorithmes sont biaisés, c’est parce que les personnes qui les conçoivent évoluent dans une société biaisée et ont elles-mêmes des biais. Et la meilleure manière d’y remédier, est de diversifier les équipes qui codent.
Car comme le rappelle Libération, un rapport du Forum économique mondial de 2018 montre que seulement 22 % des professionnels de l’intelligence artificielle sont des femmes. Peut-être Facebook pourrait-il commencer par leur montrer l’annonce d’emploi ?
Les Commentaires