Le hashtag #ProtectTaylorSwift a commencé à circuler sur X jeudi après que des images de la star nue générées par l’intelligence artificielle ont inondé l’internet. D’abord téléchargées sur Telegram, les images ont rapidement été diffusées sur les médias sociaux, vues des millions de fois et, sur certaines plateformes, n’ont toujours pas été supprimées. En réaction, X a semblé désactiver les recherches sur le nom de Swift quelques jours après l’apparition des images, mais après avoir supprimé un tiers de ses modérateurs de contenu au cours des deux dernières années, cet effort est trop faible et trop tardif. Il est facile pour les utilisateurs de contourner cette mesure et il n’est pas certain qu’elle soit reproduite pour les personnes qui ne sont pas des célébrités. Bien qu’il s’agisse d’une option importante pour les victimes, le fait de rendre les personnes introuvables pendant une période indéterminée sans leur consentement pourrait contribuer à l’effet plus général de réduction au silence que le harcèlement en ligne a sur les victimes
Le fait que n’importe qui puisse être « virtuellement déshabillé » en quelques secondes est une perspective effrayante, mais nous pouvons faire beaucoup pour l’éviter. Nous pouvons commencer par aborder la vérité qui se cache derrière la technologie : Nous ne nous préoccupons pas suffisamment du consentement des personnes, et principalement des femmes.
La création et la diffusion de fausses images sexuelles de personnes sans leur consentement portent un nom : « L’abus sexuel basé sur l’image ». Ces abus visent principalement les femmes et les jeunes filles et, selon Genevieve Oh, chercheuse indépendante, ils sont en augmentation exponentielle. L’année dernière, le nombre de faux nus circulant en ligne a été multiplié par dix et est devenu encore plus réaliste grâce à de nouveaux modèles d’intelligence artificielle formés à partir d’images de femmes récupérées sur l’internet sans leur consentement. Lorsque les fausses images sexuellement explicites de Swift ont commencé à circuler en ligne, cela n’a pas surpris les activistes qui ont tiré la sonnette d’alarme sur ce qu’on appelle le « deep fake porn » depuis qu’il est devenu viral sur Reddit en 2017.
La première vague de deep fake porn ciblait principalement des femmes très en vue, mais aujourd’hui, les fans adolescents de Swift sont aussi susceptibles qu’elle de faire l’objet d’un deep fake. Les écoles à travers les États-Unis sont aux prises avec l’augmentation des nus d’IA créés par des enfants, qui sont également eux-mêmes exposés au risque de toilettage et de sextorsion de la part d’adultes par le biais d’images générées par l’IA.
Les nus générés par l’IA ne sont pas seulement dangereux, ils sont aussi difficiles à réglementer. Bien qu’un projet de loi ait été déposé et que 16 États offrent certaines protections juridiques, il n’existe pas encore de loi fédérale interdisant les nus générés par l’IA. Les victimes sont donc tributaires d’une mosaïque de recours civils et pénaux dans le cadre du « revenge porn », de la diffamation, des droits d’auteur ou de la pornographie enfantine. Les pires délinquants masquant leur adresse IP ou se cachant sur le « dark web », des lois internationales unifiées sont nécessaires pour enrayer l’augmentation des escroqueries par sextorsion, du « grooming » et des images d’abus sexuels d’enfants générées par l’IA.
Nos solutions aux « deepfakes » consistent souvent à distinguer le « vrai » du « faux », mais pour la plupart des victimes, cela ne sert à rien ; quoi qu’il en soit, de nombreuses victimes disent avoir l’impression d’avoir été agressées sexuellement. La dépression, les traumatismes sexuels et le syndrome de stress post-traumatique sont des expériences courantes pour les enfants et les adultes victimes, qui luttent pour se sentir psychologiquement en sécurité parce que leurs images ne peuvent jamais être complètement effacées. Certaines victimes ont perdu leur emploi, déménagé à l’autre bout du pays et même changé de nom, tout en cherchant chaque jour sur les sites web si le contenu n’a pas été remis en ligne. Le véritable préjudice est la création d’images sexuelles sans consentement. C’est pourquoi nos solutions doivent aller au-delà de la distinction entre le vrai et le faux, et distinguer le consentement du non-consentement.
Selon l’historienne Jessica Lake, les faux nus remontent aux débuts de la photographie. 150 ans plus tard, la technologie a certainement changé, mais les motivations des gens sont restées les mêmes. Ils créent de faux nus pour gagner de l’argent par le biais d’escroqueries telles que la sextorsion, pour punir, contrôler ou manipuler les autres, pour se livrer à des fantasmes sexuels, pour créer des liens avec d’autres personnes, pour s’intégrer ou simplement parce qu’ils trouvent cela drôle et divertissant. La plupart de ces motivations sont liées à l’idée que le corps d’une personne peut être utilisé sans son consentement.
Il est impossible de supprimer de l’internet tous les contenus sexuels créés sans consentement, mais nous pouvons enrayer leur propagation en demandant des comptes aux grandes entreprises technologiques qui hébergent, possèdent ou dirigent le trafic vers les outils qui inondent l’internet de « deepfake porn ». À tout le moins, Google et les autres moteurs de recherche devraient déréférencer de manière proactive les générateurs de vidéos utilisés pour créer ce contenu. Les sites web qui hébergent des images à caractère sexuel devraient également procéder à une vérification sérieuse de l’âge et du consentement. En plus de retirer les images et de sévir sur les forums où se réunissent les délinquants, les plateformes de médias sociaux devraient utiliser des messages préventifs pour modeler le comportement des utilisateurs et modérer de manière proactive les récidivistes.
Mes recherches indiquent que les jeunes sont passionnés par la protection de la vie privée des autres, et nous l’avons vu lorsque les fans de Swift ont pris sa défense sur X. Nous devons suivre leur exemple en mettant l’accent sur la vie privée, le consentement et l’équité dans la réglementation des nus par IA pour les victimes qui n’ont pas d’armée de fans se précipitant à leur défense. Les abus sexuels fondés sur l’image ciblent de manière disproportionnée les femmes et les femmes minorisées, une tendance qui risque de persister avec les nus d’IA. Ce sont les experts de l’expérience vécue, et les solutions doivent être centrées sur leur autonomie corporelle.
En fin de compte, si nous nous concentrons sur le consentement, nous pourrons améliorer les outils d’IA de manière à protéger à la fois la vie privée et l’expression sexuelle.