L’avatar d’une jeune fille a été agressé dans le métavers. Qu’est-ce qui devrait être considéré comme un crime dans les mondes de la réalité virtuelle ?

Vous vous souvenez de la campagne futuriste lancée par Meta en octobre 2021, lorsque Mark Zuckerberg, sous la forme d’un avatar, nous a fait visiter sa somptueuse et lumineuse demeure virtuelle ? À l’époque, l’entreprise venait de changer de nom et d’abandonner celui de Facebook, et le grand manitou des médias sociaux nous a expliqué pendant une heure pourquoi le métavers nous promettait un avenir radieux et passionnant. « Nous allons pouvoir nous exprimer d’une nouvelle manière, joyeuse et totalement immersive », a déclaré M. Zuckerberg, en passant devant une garde-robe de costumes virtuels conçus pour son avatar. Puis, assez bizarrement, Nick Clegg, vice-président de l’entreprise chargé des affaires mondiales et de la communication, est apparu à l’écran pour parler des paramètres de confidentialité. « La prochaine version de l’internet peut offrir ce sentiment de connexion et de présence profondes – c’est ce que le métavers veut dire », a ajouté M. Zuckerberg.

Quelles que soient les prédictions de Zuckerberg sur l’avenir du métavers en 2021, il semblait toujours qu’il s’agissait de quelque chose de très éloigné de la vie quotidienne des simples mortels – ou du moins c’est ce que nous pensions.

À la fin de l’année 2023, les recherches montrent que le métavers bat son plein. Une étude montre que 66 % des enfants britanniques se sont adonnés à la réalité virtuelle, tandis que 25 % d’entre eux utilisent la réalité virtuelle (RV) chaque semaine. En juin, Meta a élargi son bassin de consommateurs en abaissant la limite d’âge pour l’accès au métavers de 13 à 10 ans. Entre-temps, certains développeurs d’applications de RV ont déjà signalé que leurs ventes avaient été multipliées par six depuis le jour de Noël 2023. Mais à mesure que le nombre d’utilisateurs du métavers augmente, le langage enjoué utilisé par les entreprises technologiques contraste fortement avec une réalité plus sombre.

Il a été rapporté que la police britannique enquêtait sur une agression sexuelle virtuelle commise sur l’avatar d’une jeune fille ; c’est la première fois que les autorités britanniques se penchent sur une affaire de ce type. Nous ne connaissons pas les détails de ce qui s’est passé, mais nous savons que la jeune fille avait moins de 16 ans lors de l’incident et qu’elle jouait à un jeu immersif avec son casque de RV lorsque son avatar a été violé par plusieurs autres personnes. Bien que des femmes aient tenté de tirer la sonnette d’alarme sur la culture du viol dans le métavers et la misogynie dont font souvent preuve les acteurs anonymes, cette affaire est tout à fait inédite lorsqu’il s’agit d’intervenir après un abus sexuel survenu dans un monde tridimensionnel et incarné.

Le métavers est un nom collectif donné à ces mondes virtuels incarnés, dans lesquels les utilisateurs sont représentés par leurs avatars. On y accède en enfilant un casque de RV, ce qui permet, sous la forme d’un avatar, de se déplacer, de communiquer et d’interagir avec d’autres humains sous une forme virtuelle. Dans le métavers, vous pouvez faire du shopping, pêcher, assister à des réunions d’équipe ou boire une bière virtuelle lors d’un concert dans un stade. Bien entendu, ce nouveau monde offre de nombreux avantages nouveaux et passionnants, mais les experts sont de plus en plus nombreux à dénoncer l’absence de réglementation de ces mondes virtuels. Jusqu’à présent, les personnes qui enfreignent les politiques anti-abus – souvent appliquées de manière très vague – définies par les plateformes n’ont guère de comptes à rendre.

Nina Jane Patel, psychologue et chercheuse en métavers basée à Londres, a été l’une des premières adultes à partager publiquement l’expérience de l’agression sexuelle de son avatar. Utilisant son casque Meta Oculus 2 VR Headset dans le confort de sa propre maison, elle a accédé à l’application sociale de RV de Meta, Horizon Worlds, lorsqu’elle a déclaré que son avatar avait été victime d’un « viol collectif » moins d’une minute après avoir été présent dans la pièce. « Je ne pense même pas que cela ait duré une minute… Quatre avatars masculins m’ont harcelée verbalement, puis ont commencé à agresser mon avatar », raconte Mme Patel. Un homme a crié : « Ne prétends pas que tu n’as pas aimé », tandis qu’un autre a dit « Va te frotter », bien que Patel leur ait demandé à plusieurs reprises d’arrêter. « Je me déplaçais dans une autre partie de la pièce, mais cela ne les arrêtait pas », dit-elle. « On m’a manqué de respect et on m’a agressée. Ils se sont acharnés et sont devenus de plus en plus agressifs ».

Bien que le viol virtuel n’implique pas de pénétration, puisque les avatars n’ont pas d’organes génitaux, les utilisateurs peuvent simuler des rapports sexuels et des fellations en adoptant des positions provocantes à l’aide de leurs avatars. Si l’on ajoute à cela l’utilisation de leur propre voix pour émettre des bruits sexuellement suggestifs et dérangeants, cela signifie que les avatars peuvent toujours approcher d’autres personnes d’une manière non consensuelle et invasive. Compte tenu des progrès de la technologie des casques et de l’utilisation de sons et de sensations haptiques, les femmes qui ont déclaré avoir été agressées sexuellement dans le métavers ont dit à quel point elles pouvaient se sentir réelles, même si elles n’avaient pas été touchées physiquement.

Des dizaines de femmes se sont manifestées pour raconter des histoires similaires. Une chercheuse de l’organisation à but non lucratif SumOfUs a déclaré que son avatar avait été agressé dans Horizon Worlds. « Environ une heure après avoir utilisé la plateforme, une chercheuse a été conduite dans une salle privée lors d’une fête où elle a été violée par un utilisateur qui n’a cessé de lui dire de se retourner pour qu’il puisse le faire par derrière, alors que les utilisateurs à l’extérieur de la fenêtre pouvaient voir », peut-on lire dans un rapport de l’organisation. « Un autre utilisateur dans la pièce regardait et faisait circuler une bouteille de vodka.

Plusieurs études rapportent que les espaces métavers manquent de régulation lorsqu’il s’agit de surveiller les agressions sexuelles et de protéger les enfants. Un rapport récent de la NSPCC a révélé que les entreprises technologiques « n’accordent pas la priorité à la sécurité des enfants sur les plates-formes » où des abus sexuels sont perpétrés. Richard Collard, responsable associé de la politique de sécurité des enfants en ligne à la NSPCC, a déclaré à The Independent que les abus sexuels en ligne « ont un impact dévastateur sur les enfants » et que dans un monde immersif, où les sens sont intensifiés, « le mal peut être ressenti de manière très similaire au monde réel ».

Il n’y a pas de compréhension commune au sein de cette profession et il n’y a pas vraiment d’orientation claire sur la manière de poursuivre une personne reconnue coupable d’un crime dans ce contexte.

Dr Verity McIntosh, chercheuse et maître de conférences

Malgré les nombreux rapports prouvant que la culture du viol sous-tend souvent l’environnement dans de nombreux espaces de RV, les sourcils se lèvent sur la légitimité de ce que nous pouvons classer comme « viol » ou « abus » dans le métavers. Et il semble qu’une question évidente se pose ici : Pourquoi, si ces joueurs étaient mal à l’aise dans ces espaces de RV, n’ont-ils pas enlevé leur casque et éteint le jeu ?

Je répondrais que si une femme ou une jeune fille ne peut pas s’asseoir dans ce qui est probablement l’endroit le plus sûr où elle puisse se trouver – son domicile – pour jouer à un jeu qu’elle aime, qu’est-ce que cela dit de la façon dont la misogynie et les abus existent sur ces plates-formes ?

Verity McIntosh est chercheuse et maître de conférences en réalités virtuelles et étendues à l’université de l’ouest de l’Angleterre. Elle est coauteur de rapports fondamentaux sur le sujet, dont un pour la NSPCC intitulé : Child Safeguarding and Immersive Technologies, et le rapport de l’Institution of Engineering and Technology (IET) : Safeguarding the Metaverse : Safeguarding the métavers. Mme McIntosh m’explique qu’il faut prendre au sérieux l’impact psychologique d’une agression se produisant dans la RV, car l’expérience peut déclencher des sentiments similaires à ceux d’un incident non virtuel dans la vie réelle (IRL). Elle explique cela par le « processus d’incarnation » – lorsque notre représentation en ligne a des liens avec notre moi réel, ce qui peut être intensifié si vous utilisez un avatar qui vous ressemble, ou si vous utilisez votre propre voix pour parler à des individus dans ces mondes virtuels.

Plus la technologie est sophistiquée, plus les frontières entre ce qui semble réel et ce qui ne l’est pas deviennent floues. « Il s’agit d’une interaction en direct, qui semble personnelle. Vous parlez avec votre voix naturelle, vos mouvements [virtuels] suivent vos mouvements physiques et, grâce à ce type d’indices psychologiques, vous pensez qu’il s’agit d’une personne réelle et vous adoptez très rapidement le type de comportement que vous auriez dans une situation sociale normale », explique M. McIntosh. « Et tout comme dans n’importe quelle sorte de situation sociale physique, lorsque quelqu’un viole les codes relatifs à l’espace personnel… même si cela est vécu différemment [dans les métavers], cela reste incroyablement profond et peut avoir un impact psychologique auquel nous ne sommes pas habitués culturellement. »

Daria Kuss, professeur agrégé de psychologie à l’université de Nottingham Trent, m’explique que si une personne a déjà été victime de harcèlement sexuel IRL, une agression virtuelle peut lui rappeler cette agression sexuelle physique et potentiellement la « retraumatiser ». Bien que M. Kuss affirme qu’il n’y a aucune preuve que l’agression virtuelle puisse être considérée comme équivalente à l’expérience d’une agression sexuelle IRL, les deux cas peuvent évoquer des émotions similaires, et les sentiments d’une personne après avoir été agressée dans des espaces virtuels devraient être validés. « Même si quelque chose se passe en ligne, il ne s’agit pas d’émotions virtuelles, mais d’émotions réelles et, par conséquent, le traumatisme peut également être ressenti comme réel.

Mme Mcintosh ajoute que la réplique « Pourquoi n’as-tu pas simplement éteint ton casque ? » rejette souvent la responsabilité de l’agresseur sur la victime. « Il y a cette idée que si vous n’aimez pas ça… alors ne jouez pas avec les grands garçons », dit-elle. « Le fait que les médias et les forums sociaux tendent à blâmer les victimes pour ne pas avoir activé leurs paramètres de confidentialité ou pour ne pas avoir anticipé l’épisode traumatisant en retirant leur casque à temps, détourne l’attention du joueur fautif et donne l’impression que la victime est naïve ou qu’elle s’en prend à elle-même.

Méta-physique
Je regarde un enregistrement d’un avatar masculin faisant des bruits sexuellement suggestifs alors qu’il suit un avatar féminin dans une pièce de VRChat (l’application de RV sociale la plus évaluée sur Meta). Il la harcèle même si elle lui demande d’arrêter. Cette fois-ci, ce n’est pas Patel qui est en cause, mais un avatar féminin, comme le montre Callum Hood, directeur de recherche au Centre for Countering Digital Hate (CCDH). En 2021, depuis son bureau de Londres, M. Hood a observé VRChat pendant 11 heures et demie et a enregistré plus de 100 violations des directives de Meta, trouvant un exemple d’abus toutes les sept minutes.

Il s’apprête à appuyer sur « play ». « Juste pour vous prévenir, c’est très bizarre », dit-il, avant de montrer une vidéo où un utilisateur projette du porno hentai (sexe pratiqué par des personnages de manga japonais) à travers la pièce pour que tous les utilisateurs puissent le voir, sans leur consentement. « Il m’arrivait de me connecter à un espace où une femme était présente, et de me faire harceler par des utilisateurs masculins », explique M. Hood, citant le harcèlement sexiste comme un phénomène courant sur VRChat.

Si une femme ou une jeune fille ne peut pas s’asseoir dans ce qui est probablement l’endroit le plus sûr où elle puisse se trouver – son domicile – pour jouer à un jeu qu’elle aime, qu’est-ce que cela dit de la façon dont la misogynie et les abus existent sur ces plates-formes ?

Mme Hood a signalé chaque violation à Meta, mais en vain : elles sont toutes restées sans réponse. « Meta a eu l’occasion d’agir sur les comptes que nous avons identifiés et, pour autant que nous le sachions, il ne l’a pas fait », déclare-t-il. De plus, la procédure de signalement de Meta comporte des lacunes qui compliquent encore davantage le processus ardu de traitement des plaintes. Le CCDH a découvert qu’un rapport n’est pas accepté si Meta ne peut pas reconnaître les noms d’utilisateur concernés. Ainsi, si un agresseur change de nom d’utilisateur, il peut rester indemne et continuer à utiliser librement les plateformes Meta. « Il est très important que les utilisateurs puissent naviguer dans ces environnements chaotiques dans le feu de l’action s’ils ont besoin de signaler quelque chose », ajoute M. Hood.

Le CCDH a publié un autre rapport en mars 2023, cette fois sur l’incapacité de Meta’s Horizon Worlds à protéger les mineurs. Les chercheurs se sont connectés 100 fois à Horizon Worlds et ont trouvé des mineurs dans 66 de ces cas. Ils ont identifié 19 incidents d’abus dirigés contre des mineurs par des adultes, y compris des insultes sexuellement explicites et du harcèlement racial, misogyne et homophobe.

« Il y a beaucoup d’enfants qui se mélangent aux adultes dans ces espaces et il n’y a pas vraiment d’application des règles », déclare M. Hood. Dans son code de conduite pour les expériences virtuelles, Meta demande à ses utilisateurs de « ne pas promouvoir des activités illégales, abusives ou susceptibles d’entraîner des dommages physiques, comme la sexualisation, l’exploitation ou l’abus de mineurs ». Cependant, M. Hood estime que si Meta devait rendre ses règles plus strictes et bannir chaque utilisateur qui enfreint ses politiques de comportement, il pourrait s’agir d’un « conflit d’intérêts », étant donné que les bénéfices de Meta proviennent de la vente d’applications et de fonctionnalités in-app, plutôt que de la vente de casques audio. « Si Meta retire un utilisateur de sa plateforme, c’est une personne à qui elle ne peut plus vendre de produits », explique M. Hood.

Contacté par The Independent, un porte-parole de Meta a présenté une série de « fonctions de sécurité pour les adolescents ». « Les profils des adolescents sont automatiquement mis en mode privé, ce qui leur permet d’approuver ou de refuser toute personne qui demande à les suivre », explique-t-on. Une autre fonction, le mode vocal, transforme la voix des personnes que l’adolescent ne connaît pas, afin de lui permettre de « mieux contrôler qui peut communiquer avec lui ». Le site présente une série de conseils pour la protection des parents et ajoute que Meta travaille avec « plus de 500 ONG de sécurité des femmes dans le monde entier, dans le cadre de tables rondes régionales et de la Commission de la condition de la femme des Nations unies, afin d’obtenir un retour d’information continu sur nos outils de sécurité » pour rendre tous leurs espaces « accueillants et sûrs pour tout le monde ».

Des solutions réelles à un problème virtuel
En ce qui concerne l’agression de l’avatar de la jeune fille mineure, on ne sait pas encore quelles lois seront utilisées, ni si elles feront appel au projet de loi sur la sécurité en ligne (Online Safety Bill), un ensemble de lois datant d’un an et visant à protéger les enfants et les adultes en ligne.

Toutefois, les experts sont déjà sceptiques quant à la mesure dans laquelle le projet de loi aborde ce qui a été largement qualifié de « problème de pelotage » dans les métavers. Lorsque le projet de loi sur la sécurité en ligne a reçu la sanction royale pour devenir loi en octobre 2023, McIntosh et plusieurs collègues de l’Institution of Engineering and Technology ont publié une lettre ouverte à l’Ofcom, dans laquelle ils demandent une révision urgente de la façon dont les espaces de RV sont régis, « compte tenu de la gravité des infractions commises ».

Il n’en reste pas moins qu’il n’est jamais facile d’engager des poursuites en cas de viol, et l’on ne sait pas comment cela se traduira dans les univers de RV. Il est de notoriété publique que les femmes se heurtent souvent à d’énormes obstacles lorsqu’elles tentent de signaler un cas de viol : plus de 99 % des viols signalés à la police au Royaume-Uni et au pays de Galles n’aboutissent pas à une condamnation – imaginez cette difficulté lorsqu’il s’agit d’essayer de faire aboutir une affaire d’agression qui s’est déroulée virtuellement. « Il n’y a pas de compréhension commune au sein de la profession et il n’y a pas vraiment de conseils clairs sur la manière de poursuivre une personne reconnue coupable d’un crime dans ce contexte », explique Mme McIntosh. « Il y a également des questions non résolues sur lesquelles le gouvernement pourrait prendre position, de sorte que nous devons découvrir les choses au fur et à mesure.

Pourra-t-on un jour trouver une solution au problème des pelotages dans les métavers ? Martina Welkhoff est partenaire fondatrice de WXR, un fonds basé à Seattle qui investit dans des start-ups dirigées par des femmes dans le domaine de la RV et de la RA (réalité augmentée). Selon elle, la rareté des femmes travaillant à la programmation d’applications immersives pourrait expliquer pourquoi les femmes se sentent souvent exclues de ces environnements.

Selon les statistiques de la société de recrutement Zippia, 34 % seulement des employés des entreprises technologiques américaines telles qu’Amazon, Apple, Facebook, Google et Microsoft sont des femmes. « Lorsque les personnes présentes dans la salle ne sont pas capables de reconnaître ces vulnérabilités et le fait que les femmes peuvent avoir une expérience utilisateur très différente de celle des hommes, cela cause du tort ou pose un danger potentiel, en particulier dans le cadre social », explique Mme Welkhoff, qui est bien consciente des avantages d’avoir plus de femmes pionnières dans les applications de RV, puisque son travail consiste à investir dans ces applications. « Nous avons remarqué que si les entreprises sont fondées par un groupe diversifié de personnes, qu’il s’agisse de femmes et d’hommes ensemble ou de personnes de couleur et de voix sous-représentées de manière plus générale, elles ont tendance à constituer des équipes plus diversifiées et à surpasser la concurrence », explique Mme Welkhoff. « Je pense que c’est une énorme erreur stratégique de ne pas s’assurer de manière proactive que les femmes occupent une place importante dans ces équipes en phase de démarrage.

Selon l’IET, la prochaine génération d’enfants passera environ 10 ans dans la réalité virtuelle au cours de sa vie, soit près de trois heures par jour. Bien entendu, la manière dont les législateurs s’adaptent à cette forme d’interaction changeante se présentera bientôt. Mais en attendant, il reste à voir si les développeurs peuvent faire en sorte que leurs plateformes soient à la hauteur de leur joyeux marketing.

WP Twitter Auto Publish Powered By : XYZScripts.com