Le métavers sera le prochain vivier des fake news

Les métavers peuvent être un terrain fertile pour la diffusion de fausses informations si elles ne sont pas contrôlées. Pour réduire ce danger, il faut saisir l’occasion et commencer à réfléchir à des politiques de modération du contenu délicates.

es dangers de la désinformation et des fakenews ont été mis en évidence récemment, alors que des flots de faux récits sèment la confusion autour de l’invasion de l’Ukraine par la Russie, certains étant poussés par des médias soutenus par la Russie pour « justifier » les attaques. Sur le front intérieur, l’Agence pour la cybersécurité et la sécurité des infrastructures (CISA) a prévenu que la Russie pourrait diffuser des informations erronées pour influencer les politiques américaines.

La lutte contre la désinformation s’est souvent concentrée sur sa diffusion par les plateformes de médias sociaux et les sites qui se font passer pour des publications d’information. Mais à mesure que les canaux de communication évoluent, de nombreuses personnes qui étudient cet espace prévoient que la désinformation pourrait se déplacer vers une nouvelle arène : le métavers.

Les métavers sont souvent envisagés comme des environnements numériques immersifs qui persistent même lorsque les utilisateurs sont déconnectés, et qui utilisent la réalité augmentée et virtuelle. Ils sont susceptibles d’imiter le monde réel dans une certaine mesure et de recréer virtuellement certaines expériences comme le shopping et les réunions professionnelles et sociales. Comme il s’agit d’un domaine encore naissant, on ignore combien d’organisations lanceront ces environnements virtuels et à quoi ils ressembleront exactement.

 

Un autre type de domaine numérique global et virtuel, « toujours actif », peut donner des indications sur la façon dont les récits pourraient se propager dans le métavers : les jeux vidéo multijoueurs en ligne. Ces jeux permettent aux joueurs d’interagir en temps réel avec d’autres joueurs du monde entier, créant ainsi une sorte de forum en ligne à grande échelle.

Daniel Kelley – directeur de la stratégie et des opérations du Center for Technology and Society de l’Anti-Defamation League (ADL) – a écrit dans un article de Slate de 2020 que ces jeux présentent la possibilité pour les joueurs de diffuser des informations – authentiques ou manipulées – que les politiques de modération du contenu des sociétés de jeux ne sont peut-être pas préparées à traiter. Par exemple, une enquête de 2019 de l’ADL a révélé que 13 % des résidents américains qui jouent à des jeux multijoueurs en ligne ont déclaré avoir été exposés à de la désinformation sur le 11 septembre 2001 et 8 % ont dit avoir vu de la désinformation sur les vaccinations.

Selon Bloomberg, la startup Sensorium Corp a rencontré un problème de désinformation lors d’une démonstration à une conférence technologique en 2021. Les participants pouvaient discuter avec des personnages virtuels, dont un robot qui, « lorsqu’on lui a simplement demandé ce qu’il pensait des vaccins, a commencé à cracher des informations erronées sur la santé ». Il leur disait notamment que les vaccins peuvent être plus dangereux que les maladies contre lesquelles ils sont conçus. Bloomberg a rapporté que les développeurs ont dit qu’ils prévoyaient de faire des mises à jour qui limiteraient ce que le robot peut dire sur certains sujets.

Les journalistes de Buzzfeed qui ont utilisé Horizon Worlds, la plateforme de divertissement en réalité virtuelle de Meta, la société mère de Facebook, ont également constaté des lacunes apparentes dans le contrôle de la désinformation. La plateforme leur a permis de concevoir une zone privée, sur invitation seulement, qu’ils ont remplie de théories de la conspiration basées sur l’audio et le texte – sans que les modérateurs de contenu n’aient à intervenir.

Nous avons appelé ce monde « The Qniverse » et nous lui avons donné une bande-son : une boucle sans fin du fondateur d’Infowars, Alex Jones, qui traite Joe Biden de pédophile et prétend que les élections ont été truquées par des maîtres reptiliens. Nous avons rempli le ciel de mots et de phrases que Meta a explicitement promis de supprimer de Facebook et d’Instagram –  » les vaccins causent l’autisme « ,  » COVID est un canular  » et le slogan de QAnon  » là où nous allons un, nous allons tous « , a écrit un journaliste.

Les modérateurs d’Horizon World ne sont pas intervenus ou n’ont pas retiré le Qniverse jusqu’à ce que les reporters finissent par utiliser leur statut de journalistes pour contacter le service de communication de Meta et demander pourquoi. Les tentatives précédentes des employés de Buzzfeed d’utiliser les outils de la plateforme pour signaler le Qniverse ont reçu la réponse suivante : « cela ne viole pas notre politique de contenu en RV ».

Selon le stratège politique et ancien vice-gouverneur de l’Illinois Bradley Tusk, il est temps de prendre de l’avance sur la désinformation liée aux métavers.

Il a récemment écrit que les régulateurs devraient commencer à réfléchir aux questions réglementaires délicates qui entourent les métavers, afin de pousser l’espace à se développer selon des principes plus sûrs.

Les régulateurs, les groupes de réflexion et d’autres acteurs devront peut-être attendre le lancement des plateformes pour voir exactement à quoi ils ont affaire, puis élaborer des détails et des propositions politiques spécifiques. Mais il est temps de réfléchir à des concepts plus larges. Cela peut inclure des éléments tels que la manière d’aborder la liberté d’expression et les préoccupations en matière de désinformation, les réglementations relatives à la vérité dans la publicité et aux campagnes électorales qui seront nécessaires et les politiques de confidentialité des entités politiques qui devraient s’appliquer aux opérateurs de métavers et à leurs utilisateurs individuels et professionnels très éloignés.

« Les problèmes que nous rencontrons actuellement pour réguler les entreprises technologiques seront reproduits et amplifiés dans le métavers. Vous pensez que le contrôle de la désinformation parrainée par l’État est difficile sur Facebook et Twitter ? » écrit Tusk. « …Comment faire en sorte que l’information exacte prévale, surtout dans un contexte où l’altération de la réalité est le but recherché ? La vie dans le métavers ne ressemblera pas à la vie réelle, et c’est voulu. Alors comment assurer la sécurité des gens ? »

Daniel Castro – vice-président de l’Information Technology and Innovation Foundation (ITIF) et directeur de son Center for Data Innovation – a également soulevé des inquiétudes dans un rapport publié hier. Il a déclaré que les plateformes et les décideurs politiques doivent s’attendre à ce que les mauvais acteurs tentent d’utiliser les plateformes à mauvais escient et doivent trouver les bonnes techniques pour freiner les abus sans trop étouffer les utilisations inoffensives.

Il a noté que les nouvelles technologies comportent de nouveaux risques, notamment que les utilisateurs malveillants des métavers pourraient facilement créer des avatars à la ressemblance d’autres personnes, pour se faire passer pour elles.

Un autre défi est que les conversations dans les métavers se déroulent en temps réel, potentiellement de manière complexe, ce qui nécessite que les modérateurs comprennent les gestes des avatars et le contexte social pour en saisir tout le sens, et qui peut ne laisser aucune trace à évaluer par les vérificateurs de faits – comme dans le cas de conversations audio non enregistrées, écrit Castro.

Les plates-formes qui tentent d’empêcher la diffusion de contenus préjudiciables doivent trouver un juste équilibre entre sécurité et vie privée, écrit-il : celles qui veulent sévir pourraient choisir d’écouter autant de conversations d’utilisateurs que leurs employés et leurs systèmes automatisés sont capables d’examiner, mais une telle surveillance de masse pourrait également refroidir les discours non malveillants.

À l’heure actuelle, trop de décisions de modération de contenu incombent aux plateformes, a déclaré M. Castro. Les responsables politiques fédéraux devraient aider en donnant des conseils sur ce qui est considéré comme de la désinformation malveillante et sur la manière dont les plateformes doivent y répondre. Les agences fédérales et leurs partenaires devraient également élaborer un cadre auquel les plateformes pourraient se référer – si elles le souhaitent – lorsqu’elles prennent des décisions en matière de modération de contenu, a-t-il ajouté. Il pourrait s’agir de conseils sur la nécessité, dans certaines situations, de suspendre les utilisateurs ou de limiter simplement la manière dont le contenu peut être partagé.

Les plateformes métavers, tout comme les plateformes de médias sociaux traditionnelles, ont besoin d’un forum où elles peuvent communiquer avec les services fédéraux de répression et de renseignement. Cela leur permettrait de mieux travailler ensemble pour identifier et répondre à des menaces telles que les campagnes de désinformation, a-t-il ajouté.

Adapté de GovTech

WP Twitter Auto Publish Powered By : XYZScripts.com