Meta doit prouver qu’elle a mis en place les bonnes protections pour les utilisateurs si le métavers doit être un espace inclusif.
Le géant de la technologie, anciennement connu sous le nom de Facebook, parie la ferme virtuelle sur le fait que le métavers sera la prochaine grande chose. En plus de changer son nom d’origine en Meta, l’empire de Mark Zuckerberg consacre de vastes ressources à sa division Reality Labs qui développe ses logiciels et son matériel de réalité virtuelle.
La division a ajouté 6 000 employés à ses effectifs et a enregistré une perte de 3 milliards de dollars au cours du seul premier trimestre de 2022.
Le président des affaires mondiales de Meta et ancien vice-premier ministre Nick Clegg affirme que le métavers apportera 3 000 milliards de dollars à l’économie mondiale d’ici 2031.
Mais au-delà de l’argument commercial, Nick Clegg a également cherché à vanter les mérites du métavers en tant que véhicule du bien social, le saluant comme une « force puissante pour un meilleur accès et une plus grande diversité ».
Selon Maxine Williams, responsable de la diversité chez Meta, une grande partie de l’infrastructure nécessaire à la diversification du métavers est construite à Londres, où Meta a intensifié le recrutement d’ingénieurs en logiciels pour concevoir des avatars en 3D.
« Nous avons un quintillion de façons de nous exprimer », a déclaré Mme Williams au Standard. « Si aujourd’hui je veux me montrer comme ‘x’, je peux me montrer comme ‘x’ et si demain je veux me montrer comme un lapin, je peux me montrer comme un lapin – donc c’est un endroit avec beaucoup d’optionnalité basée sur la façon dont vous vous voyez. »
Pour Williams, cependant, le véritable point de référence pour la construction d’un métavers diversifié est moins de savoir à quel animal domestique les utilisateurs veulent ressembler un jour donné, et plus les résultats économiques pour les participants.
« Une opportunité a fait la différence entre l’équité et l’iniquité », a-t-elle déclaré. « J’ai passé du temps avec une jeune femme – une mère célibataire noire, qui est une artiste et a construit son entreprise dans ce qui est maintenant une version précoce du métavers dans Horizon Worlds [de Meta].
« Elle n’avait pas l’argent pour louer une galerie pour montrer son art, à cause de toutes les choses qui ont contribué à l’oppression systémique et à l’inégalité. Maintenant, elle a pu vendre son art dans le monde entier à des gens qui n’auraient jamais eu l’occasion de se rencontrer. »
Une plateforme en ligne ne peut toutefois être diversifiée que si elle crée un environnement dans lequel tout le monde se sent à l’aise – et cela signifie que la modération du contenu doit respecter les mêmes normes, indépendamment de la langue ou de la situation géographique, ce que certains disent que Meta n’a pas toujours respecté.
En juin, le site Facebook de Meta a été accusé de ne pas avoir modéré les contenus préjudiciables dans différentes langues, à la suite d’une enquête menée par le groupe de défense des droits de l’homme Global Witness, qui a révélé que la plateforme avait approuvé des publicités contenant des discours de haine violents écrits en amharique, la langue nationale de l’Éthiopie.
Dans une déclaration au Guardian, Meta a dit : « Nous avons beaucoup investi dans les mesures de sécurité en Éthiopie, en ajoutant plus de personnel avec une expertise locale et en renforçant notre capacité à attraper les contenus haineux et incendiaires dans les langues les plus parlées, y compris l’amharique. »
Dans son rapport sur les droits de l’homme publié jeudi, une enquête commandée par Meta sur ses plateformes en Inde a révélé qu’elles pouvaient être « liées à des risques saillants en matière de droits de l’homme causés par des tiers » ,y compris la promotion par des tiers de la haine qui incite à la discrimination ou à la violence.
Facebook a également été sous le feu des critiques l’année dernière après qu’une enquête du Wall Street Journal a révélé que les propres recherches internes de Facebook ont révélé qu’Instagram était nuisible pour certains utilisateurs, en particulier les adolescentes. « Trente-deux pour cent des adolescentes ont déclaré que lorsqu’elles se sentaient mal dans leur corps, Instagram les faisait se sentir encore plus mal », rapporte un élément de la recherche.
Cela pourrait expliquer pourquoi Meta a pris la décision de restreindre son univers de réalité virtuelle Horizon World, lancé au Royaume-Uni en juin, aux plus de 18 ans.
« Comment cette utilisation affecte-t-elle le développement du cerveau ? » demande M. Williams. « Si nous ne savons pas, nous prenons simplement la précaution. Peut-être que nous supprimerons la précaution avec le temps, lorsque nous aurons suffisamment de recherches. »
La réponse de Meta pour répondre aux préoccupations d’abus dans le monde virtuel est la construction d’une « frontière personnelle » – un espace invisible autour des avatars qui bloque l’attention non désirée des autres utilisateurs de la plate-forme, pour « aider les gens à interagir confortablement ».
« Vous avez littéralement une frontière autour de vous, vous pouvez dire : « Je veux que cette frontière soit activée pour toute personne qui n’est pas mon ami » », explique M. Williams. « Comme je dis à mes enfants, ne lui donnez pas d’attention – il va s’arrêter. »
« Nous avons intégré ces choses pour fournir aux gens des protections. Mais on ne veut pas non plus être paternaliste, donc on leur donne aussi le choix. »
Si Meta parvient à prouver que ces protections fonctionnent, elle aura peut-être créé la formule d’un monde virtuel dynamique dans lequel des personnes de tous horizons pourront s’épanouir.
Dans les années à venir, nous verrons si Meta peut y parvenir.