Testé pour vous : faire le videur dans le métavers

Lorsque votre travail consiste à maintenir la paix dans le club, un coup de tête est une bonne raison de botter un invité et de le bannir à vie. Mais quand on est videur dans le métavers, on apprend vite qu’un coup de tête n’est pas toujours un coup de tête.

C’est ce que j’ai dû faire un soir où j’ai participé à la sécurité d’un rassemblement virtuel, en surveillant un atrium de têtes d’avatars de dessins animés qui écoutaient une conférence sur la programmation d’un planétarium. Grâce à mon oreillette, j’étais en communication constante avec mes collègues « modérateurs » pour m’assurer que personne ne faisait irruption en criant des obscénités, n’agressait d’autres personnes dans la foule ou ne semait le chaos. L’événement s’est déroulé sur la plate-forme sociale AltSpaceVR de Microsoft, où les utilisateurs organisent souvent des conférences, des événements de réseautage et des fêtes – et rencontrent le petit pourcentage d’invités qui sont surtout là pour faire chier les autres.

Lance, un modérateur chevronné, a remarqué un homme dans la foule qui faisait des allers-retours répétés, en plein dans le visage d’une femme. Mes collègues modérateurs ont fait remarquer que ce mouvement peut parfois être une salutation dans la RV, mais qu’il peut aussi devenir une forme de harcèlement sexuel si on le pousse trop loin. Nous avons débattu de la possibilité que les deux avatars se connaissent, mais Lance a finalement décidé de dire au gars de la fermer. « Il devrait mieux le connaître », dit Lance. Modérer dans le métavers est une danse délicate qui consiste à deviner les motivations et à prendre des décisions rapides.

Les espaces virtuels se débattent avec la question de savoir comment, et si, il faut contrôler le comportement de leurs habitants depuis près de deux décennies. Le fondateur de Second Life, sans doute le premier réseau social de ce que l’on appelle aujourd’hui le métavers, a déclaré au Time l’année dernière que la plupart des grandes questions relatives à l’équilibre entre autonomie et modération restaient encore sans réponse. À mesure que des milliards de dollars d’investissement se déversent dans la RV, ces questions ne feront que devenir plus urgentes.

Afin de comprendre les méthodes de modération du métavers, j’ai passé quelques jours à faire du bénévolat pour une organisation appelée Educators in VR, qui accueille chaque mois des dizaines d’événements virtuels. Pour chaque événement, l’organisation déploie une équipe de modérateurs qui s’efforcent de veiller au bon déroulement des opérations. Avec quatre ans d’expérience, ils ont vu à peu près tout ce qui peut semer la discorde dans le métavers. « Les trolls et les perturbateurs pensent qu’ils sont nouveaux. Ils pensent que c’est une nouveauté de se tenir devant une scène, de se retourner et de se branler devant tout le monde avec des gestes de la main, et ils pensent qu’ils sont inspirés », a déclaré Lorelle VanFossen, cofondatrice d’Educators in VR. « Eh bien, après l’avoir vu 85 000 fois, vous avez fini. »

Vous n’avez pas besoin d’un physique de videur musclé pour garder les gens en ligne dans le métavers. Tout ce dont vous avez besoin, ce sont des privilèges de modération. Dans AltSpaceVR, ces privilèges incluent la possibilité de virer quelqu’un d’un événement, de mettre en sourdine les utilisateurs bruyants et d’empêcher les gens d’entrer dans certaines zones d’un espace virtuel. Les éducateurs en RV et d’autres utilisateurs d’AltSpaceVR ont dû faire pression sur les développeurs afin d’obtenir la mise en place de nombreux outils de modération. Par exemple, les modérateurs devaient autrefois poursuivre les fauteurs de troubles dans la salle, à la manière des flics de Keystone, pour les attraper et les mettre dehors ; aujourd’hui, vous pouvez le faire depuis un panneau central.

Lorsque j’étais modérateur, la plupart de mes tâches consistaient à couper le son des chiens qui aboyaient en arrière-plan ou à m’assurer que les participants n’essayaient pas de monter sur la scène. Sur mon ordinateur portable, j’étais connecté à un canal vocal Discord où mes collègues modérateurs se signalaient mutuellement les personnages suspects. « Ralph semble errer. Mais je pense qu’il va bien », disait un de mes coéquipiers. « Big Pun tourne sur lui-même, est-ce qu’il s’écrase ? Oh non, il le fait exprès », disait un autre. (Il se trouve que l’avatar en question avait une ressemblance passagère avec le rappeur disparu). Lors d’un événement, nous avons dû faire en sorte que les gens cessent d’escalader un monticule de rochers à côté de la scène d’un parc. Plus tard, un utilisateur a essayé de frapper quelqu’un au visage, ce qui lui a valu d’être immédiatement expulsé ; les modérateurs ont supposé qu’il s’agissait peut-être d’un enfant. Un autre utilisateur s’est présenté à un événement de réseautage et a commencé à faire ce qui ressemblait à la « Macarena », ce qui lui a également valu une interdiction. C’était un peu comme jongler entre les responsabilités d’un videur et d’une baby-sitter en même temps.

Dans la conception du métavers décrite par des PDG comme Mark Zuckerberg de Meta, les utilisateurs se rassembleront de plus en plus dans une série infinie d’espaces virtuels en trois dimensions à l’aide de technologies comme les casques Oculus de sa société. Cependant, alors que les entreprises s’empressent de créer de nouvelles plates-formes de métavers, elles attirent également les mêmes utilisateurs toxiques qui ont semé la pagaille sur les sites de médias sociaux bidimensionnels traditionnels pendant des décennies. Rien que cette année, de nombreux cas ont été largement rapportés de personnes, et de femmes en particulier, qui ont été virtuellement tripotées et soumises à des appels téléphoniques grossiers alors qu’elles se trouvaient dans le métavers. Les enfants ont également afflué sur les plateformes de RV comme Horizon Worlds de Meta, qui n’a pas fait grand-chose jusqu’à présent pour les protéger des abus. Lorsque vous êtes dans la réalité virtuelle, le trolling est plus viscéral que ce que vous pouvez endurer sur les médias sociaux, et la modération devient exponentiellement plus compliquée.

Afin de comprendre les méthodes de modération du métavers, j’ai passé quelques jours à travailler bénévolement pour une organisation appelée Educators in VR, qui organise des dizaines d’événements virtuels chaque mois. Pour chaque événement, l’organisation déploie une équipe de modérateurs qui s’efforcent de veiller au bon déroulement des opérations. Avec quatre ans d’expérience, ils ont vu à peu près tout ce qui peut semer la discorde dans le métavers. « Les trolls et les perturbateurs pensent qu’ils sont nouveaux. Ils pensent que c’est une nouveauté de se tenir devant une scène, de se retourner et de se branler devant tout le monde avec des gestes de la main, et ils pensent qu’ils sont inspirés », a déclaré Lorelle VanFossen, cofondatrice d’Educators in VR. « Eh bien, après l’avoir vu 85 000 fois, vous avez fini. »

Vous n’avez pas besoin d’un physique de videur musclé pour garder les gens en ligne dans le métavers. Tout ce dont vous avez besoin, ce sont des privilèges de modération. Dans AltSpaceVR, ces privilèges incluent la possibilité de virer quelqu’un d’un événement, de mettre en sourdine les utilisateurs bruyants et d’empêcher les gens d’entrer dans certaines zones d’un espace virtuel. Les éducateurs en RV et d’autres utilisateurs d’AltSpaceVR ont dû faire pression sur les développeurs afin d’obtenir la mise en place de nombreux outils de modération. Par exemple, les modérateurs devaient autrefois poursuivre les fauteurs de troubles dans la salle, à la manière des flics de Keystone, pour les attraper et les mettre dehors ; aujourd’hui, vous pouvez le faire depuis un panneau central.

Lorsque j’étais modérateur, la plupart de mes tâches consistaient à couper le son des chiens qui aboyaient en arrière-plan ou à m’assurer que les participants n’essayaient pas de monter sur la scène. Sur mon ordinateur portable, j’étais connecté à un canal vocal Discord où mes collègues modérateurs se signalaient mutuellement les personnages suspects. « Ralph semble errer. Mais je pense qu’il va bien », disait un de mes coéquipiers. « Big Pun tourne sur lui-même, est-ce qu’il s’écrase ? Oh non, il le fait exprès », disait un autre. (Il se trouve que l’avatar en question avait une ressemblance passagère avec le rappeur disparu). Lors d’un événement, nous avons dû faire en sorte que les gens cessent d’escalader un monticule de rochers à côté de la scène d’un parc. Plus tard, un utilisateur a essayé de frapper quelqu’un au visage, ce qui lui a valu d’être immédiatement expulsé ; les modérateurs ont supposé qu’il s’agissait peut-être d’un enfant. Un autre utilisateur s’est présenté à un événement de réseautage et a commencé à faire ce qui ressemblait à la « Macarena », ce qui lui a également valu une interdiction. C’était un peu comme jongler entre les responsabilités d’un videur et d’une baby-sitter en même temps.

Malgré tous les outils dont disposent les modérateurs dans le métavers, il existe une multitude d’autres tactiques que les trolls peuvent utiliser pour détruire un événement. Tous les modérateurs d’Educators in VR auxquels j’ai parlé, qui travaillent bénévolement sauf lors de rassemblements sponsorisés par des entreprises, ont raconté des histoires d’horreur sur la façon de traiter les fauteurs de troubles. Karen Myer, qui a rejoint l’organisation vers 2020, s’est souvenue d’un incident, alors qu’elle était assez récente, au cours duquel un utilisateur est entré dans un événement et a commencé à crier le mot « N ». « Je n’avais jamais entendu dans la vie réelle quelqu’un faire ça, alors j’ai perdu la tête », a-t-elle dit. « J’ai juste poursuivi le gars dans toute la pièce ». Avec le recul, elle se dit qu’elle aurait dû d’abord le mettre en sourdine. Karen Gibson-Hylands, qui a rejoint le site vers 2018, m’a parlé d’une fois où un utilisateur s’était montré discret jusqu’à ce qu’il prenne la parole pendant la partie questions-réponses d’un événement. « Cette personne a commencé à poser une question tout à fait normale et a terminé par ‘J’aimerais vous trancher la gorge' », a-t-elle raconté. « Je l’ai immédiatement mis en sourdine et l’ai expulsé de l’événement ».

L’un des plus grands défis du rôle de modérateur est de déterminer si quelqu’un perturbe délibérément un événement ou s’il ne comprend simplement pas comment fonctionne la technologie RV. Le nombre de consommateurs qui achètent des appareils de RV a augmenté suite à la décision de Meta et d’autres entreprises de se tourner vers le métavers, et ces nouveaux venus ne réalisent souvent pas que des actions simples dans le monde physique produisent souvent des résultats bizarres en ligne. S’asseoir à partir d’une position debout peut vous faire couler dans le sol dans la RV. Se lever peut vous faire flotter à trois mètres dans les airs. (VanFossen a vu une fois un avatar flotter en l’air pendant un événement afin de recevoir une fellation simulée d’un complice debout au sol). Il arrive qu’un nouvel utilisateur coince son joystick et court accidentellement dans toute la pièce. Certains ont du mal à couper les bruits de fond, tandis que d’autres ne réalisent pas qu’en enlevant un casque, leur avatar devient mou.

Il n’existe pas de règles strictes pour séparer les débutants des trolls. Les modérateurs apprennent généralement à faire la distinction après des mois de pratique. « Si quelqu’un traverse soudainement la pièce et a l’air un peu maladroit, vous pouvez généralement dire qu’il ne sait tout simplement pas comment utiliser ses contrôleurs », a déclaré Gibson-Hylands. « Avec les personnes qui trollent délibérément, elles agissent vraiment très différemment. … Vous pouvez le voir dans la façon dont ils cliquent sur leurs manettes, dans la façon dont ils regardent autour d’eux. » Cependant, Educators in VR s’efforce également de ne pas profiler en fonction de l’apparence. Dans les formations à la modération, les instructeurs soulignent que ce n’est pas parce que certains avatars peuvent être personnalisés pour avoir une apparence outrageuse qu’ils sont forcément perturbateurs. « Nous devons nous défaire de ces préjugés, car les gens croient que toute personne à la peau violette est un problème », a déclaré VanFossen. « Cela n’a rien à voir ». Ce sont souvent les avatars bien propres qui finissent par poser problème.

Ces normes révèlent à quel point la modération est compliquée lorsqu’on essaie de faire correspondre les conventions sociales du monde physique à la réalité virtuelle. Si vous vous couvriez de peinture corporelle violette et que vous vous présentiez à une conférence médicale en personne, on vous demanderait probablement de partir. Dans une conférence médicale dans un métavers, les autres participants ne sourcilleraient même pas. Cet assouplissement de certaines normes sociales amène les gens à tester les limites du comportement acceptable, et les modérateurs doivent dans certains cas décider de ce qui dépasse les bornes. Par exemple, les nouveaux utilisateurs tapent souvent la tête d’inconnus, une interaction qui serait étrange et un peu envahissante dans la vie réelle. Educators in VR essaie de décourager les gens de faire cela, bien que cela semble tomber dans une zone grise de grossier mais pas totalement offensant. Il en va de même pour le fait de faire les cent pas dans une pièce, de passer à travers d’autres utilisateurs ou de trop manipuler les contrôleurs, ce qui peut faire rebondir les mains de la RV de manière distrayante. « Les gens ne comprennent pas tout d’abord parce que beaucoup d’entre eux viennent à la RV à partir d’une plate-forme de jeu, et ne saisissent donc pas pleinement le fait que derrière chaque avatar se cache une personne », a déclaré Myer. Au cours de l’un des événements que j’ai modérés, M. VanFossen m’a demandé d’envoyer un message à un participant pour lui demander de reculer parce qu’il était un peu trop près de l’orateur et envahissait son espace personnel. J’avais besoin de ce coup de pouce : Il est difficile de dire à quel point la proximité est trop grande dans le métavers. Ce n’est pas comme si vous pouviez sentir la respiration de l’autre personne.

Pour tenir compte de ces zones grises, Educators in VR calibre la rigueur de la modération en fonction du type d’événement. Les fêtes sont un peu plus laxistes, tandis que les séances de méditation de groupe ont une politique de tolérance zéro, où l’on peut être renvoyé simplement pour avoir trop bougé dans la pièce. « J’étais très opposé à la tolérance zéro jusqu’à ce que je commence à voir ce que cela signifiait », a déclaré VanFossen à propos des événements de méditation. « Les gens sont là pour une raison, que ce soit leur truc quotidien, qu’ils aient un travail stressant à la con, qu’ils aient besoin d’une pause ou qu’ils aient des problèmes de santé mentale. » Les niveaux de modération diffèrent également en fonction de la plateforme-AltspaceVR a tendance à être plus stricte car elle s’adresse aux professionnels, tandis que VRChat est connue pour son anarchie.

Il reste à voir comment la modération fonctionnera à l’échelle alors que le métavers accélère son expansion. Pour l’instant, les développeurs ne semblent pas avoir de bonne réponse. AltSpaceVR a essayé de mettre des outils de modération entre les mains de ses utilisateurs et a également mis en place du personnel pour aider dans les situations particulièrement volatiles. Meta s’est également appuyé sur les utilisateurs eux-mêmes pour bloquer et signaler les fauteurs de troubles dans Horizon Worlds. Pourtant, si les entreprises technologiques parviennent à réaliser leurs grandes ambitions en amenant des milliards de personnes à habiter le métavers, le maintien de ce dernier va nécessiter une quantité immense de temps et d’énergie de la part d’un nombre incalculable de personnes qui doivent prendre des décisions difficiles et nuancées minute par minute. Comme le dit VanFossen, « c’est le travail le plus dégoûtant, le plus frustrant, le plus stressant, le plus générateur de maux de tête et le plus destructeur de santé mentale de la planète ».

L’alternative pourrait être l’automatisation, bien qu’il soit difficile de voir comment les algorithmes qui luttent pour combattre la toxicité dans de simples messages textuels sur les sites de médias sociaux traditionnels vont pouvoir gérer le genre d’interactions intimes en trois dimensions que Educators in VR traite chaque jour. « Je pense que vous avez besoin d’une personne parce que, à moins que les ordinateurs ne soient devenus très intelligents, vous devez être capable de juger si quelqu’un a besoin d’aide ou est perturbateur », a déclaré Gibson-Hylands. « Vous devez être en mesure d’adapter vos messages à cette personne en fonction de son comportement. » Les défenseurs de la technologie craignent en outre que l’automatisation n’entraîne des restrictions trop larges et une surveillance invasive. Les débats que nous avons actuellement sur la modération du contenu sur Twitter sembleront pittoresques comparés aux casse-têtes politiques que présentera le métavers.

M. VanFossen pense que des entreprises comme Meta doivent réfléchir à ces questions et mettre en place des garde-fous plus substantiels pour tenter d’attirer de plus en plus d’utilisateurs dans le métavers. Au-delà des préoccupations liées à la sécurité contre le harcèlement, la modération semble nécessaire uniquement pour rendre les plateformes utilisables ; imaginez simplement essayer de discuter avec une nouvelle connaissance alors que 20 autres personnes dans la pièce crient à tue-tête. « Facebook se concentre vraiment sur le marketing… mais il n’y a pas grand-chose là-dedans », dit-elle. « C’est comme si vous invitiez tout un tas de gens chez vous, mais que vous n’aviez pas de meubles ».

Adapté de Slate

WP Twitter Auto Publish Powered By : XYZScripts.com