Ces dernières années, les deepfakes sexuels, images ou vidéos ultraréalistes générées par intelligence artificielle, inondent le web. Le phénomène cible presque exclusivement les femmes. Cette semaine, la Première ministre italienne, Giorgia Meloni, en a de nouveau fait les frais. La cheffe du gouvernement italien a elle-même reposté l’un de ces hypertrucages sexuels pour dénoncer la dangerosité du phénomène.
Giorgia Meloni en sous-vêtements, assise en tailleur, sur un lit. L’image a fait beaucoup de bruit sur les réseaux sociaux ces derniers jours. Visuellement, il est presque impossible de distinguer l’utilisation d’un outil d’intelligence artificielle. Pourtant, cette photo n’est pas réelle.
Ce n’est pas la première fois que la cheffe du gouvernement italien est ciblée, à son insu, par des deepfakes sexuels. Ces dernières années, son visage est apparu dans plusieurs vidéos pornographiques, parfois visionnées des millions de fois. « Moi, je peux me défendre, beaucoup d’autres ne le peuvent pas », a commenté Giorgia Meloni, sur ses réseaux sociaux.
Un phénomène mondial
Son cas n’est qu’un exemple parmi d’autres. La superstar américaine Taylor Swift, l’influenceuse française Léna Situations ou encore la députée d’Irlande du Nord, Cara Hunter : le phénomène est planétaire. « Les femmes exposées médiatiquement sont particulièrement ciblées », précise Mathilde Saliou, journaliste et autrice des ouvrages « L’envers de la tech, ce que le numérique fait au monde » et de « Technoféminisme : comment le numérique aggrave les inégalités ».
« On se souvient déjà, au milieu des années 2010, d’une vaste fuite d’images intimes de stars de la musique ou de la télévision. Avec l’essor de l’intelligence artificielle, le phénomène a pris une nouvelle ampleur, avec des fausses images qui réapparaissent régulièrement. Le même schéma s’est répété pour de nombreuses femmes », ajoute-t-elle.
Le problème ne concerne pas que les célébrités. Avec le perfectionnement des outils d’IA, une simple photo suffit aujourd’hui pour générer un deepfake sexuel hyperréaliste, le tout sans aucun contrôle ni vérification de l’âge ou du consentement.
En début d’année, l’outil Grok d’Elon Musk qui permettait de dénuder n’importe qui avait fait couler beaucoup d’encre. En réalité, il s’agit seulement de la face émergée de l’iceberg.
Désinformation de genre
Si le terme deepfake sexuel est récent, le phénomène, lui, n’est pas nouveau. L’homme n’a pas attendu l’intelligence artificielle pour détourner illégalement l’image des femmes. Collage sur des magazines de lingerie, détourage de visage, chantage pornographique : la pratique a seulement évolué. La désinformation de genre brise des vies et vise à humilier les femmes.
« Ramener les femmes à leur sexualité, à leur corps, pour les humilier est un trope caractéristique du sexisme. Ça fait très longtemps qu’on traite les femmes de salope quand on souhaite les insulter, en évoquant leur vie sexuelle réelle ou supposée. C’est une manière parmi d’autres d’exprimer de la misogynie. Ce qui se rajoute par-dessus ces dernières années, c’est la possibilité de créer des images ultracrédibles pour continuer ces pratiques d’humiliation qui existaient auparavant », explique Mathilde Saliou.
Ce qui a changé, ces dernières années, c’est l’industrialisation des deepfakes sexuels. Certaines plateformes en ont fait un véritable business. Des criminels s’en servent également pour générer des contenus pédopornographiques.
Le rôle des modèles d’IA
Pour Mathilde Saliou, « ce phénomène est le symptôme d’un problème social beaucoup plus large. Les grands modèles d’IA aujourd’hui – qu’ils génèrent des textes, des images ou des vidéos – ont besoin d’énormément de données pour atteindre ce niveau de réalisme bluffant. Au départ, ils étaient entraînés sur des jeux de données relativement maîtrisés, issus notamment du monde de la recherche. Puis, dans une logique de “toujours plus de données”, on est passé à une stratégie qui consiste, pour le dire simplement, à racler le fond d’Internet.
Or, quand on aspire tout le web, on récupère aussi des quantités massives de vidéos pornographiques, de contenus tirés de forums qu’on aurait préféré laisser dans les bas-fonds du net, avec très peu de modération et où prolifèrent la misogynie, mais également le racisme, l’homophobie et les propos extrémistes. Tous ces contenus ont été intégrés comme données d’entraînement. C’est pour ça que, selon moi, ces outils ne sont pas neutres. »
Accélérer la réglementation
Face à ce constat, quelles sont les pistes pour enrayer le phénomène ? Il y a déjà l’évolution de la législation. Certains pays sont plus en avance que d’autres sur le sujet. Même si les lois existent, leur mise en application est souvent difficile. Se pose aussi la question des obligations qui incombent aux plateformes.
Les États membres de l’Union européenne se sont entendus jeudi 7 mai pour interdire les IA permettant de dénuder des personnes sans leur consentement. Reste à savoir à quel point cette nouvelle réglementation sera efficace.
Source du contenu: www.rfi.fr
