Crime, punition et cyberespace

« Les meurtres n’étaient pas de véritables meurtres, mais plutôt une forme de téléportation : la tête dans les mains, les poches vides, et tout objet en main à ce moment-là déposé sur le sol de la scène du crime. »

La citation ci-dessus est tirée d’un document présenté à la première conférence internationale annuelle sur le cyberespace en 1990. Ses auteurs étaient les créateurs d’Habitat, une première tentative en 1987 pour soutenir des milliers d’avatars vivants dans un cyberespace partagé par Quantum Link, un précurseur d’AOL. Les utilisateurs d’Habitat disposaient d’une économie complète : Ils géraient des entreprises, lançaient des journaux, tombaient amoureux, possédaient des maisons, fondaient des religions et menaient des guerres. Avec 20 000 « régions » contiguës, sa conception encourageait la démocratie.

Jusqu’à ce qu’ils commencent à voler, à tirer et à traquer… une répétition virtuelle d’Adam et Ève, de Romulus et Remus, de Caïn et Abel.

Les fusils et les armes ont fait leur apparition. Les avatars ont été décapités chez eux. Un prêtre orthodoxe grec a fondé une église dans le jeu, où il était interdit aux disciples de porter des armes ou de promouvoir des activités violentes. Finalement, une élection municipale a eu lieu et le premier shérif Habitat a pris ses fonctions jusqu’à la fin du pilote du jeu.

« Plus nous impliquons de personnes dans quelque chose, moins nous avons le contrôle », a écrit le co-créateur Chip Morningstar dans le journal. « Nous pouvions influencer les choses, nous pouvions créer des situations intéressantes, nous pouvions fournir des occasions pour que les choses se produisent, mais nous ne pouvions pas dicter le résultat. L’ingénierie sociale est, au mieux, une science inexacte… »

Un lundi soir de 1993, LambdaMOO, un monde virtuel basé sur le texte et gouverné par ses membres, s’est retrouvé dans un dilemme cybernétique après qu’un utilisateur a utilisé un sous-programme de « poupée vaudou » pour souiller des membres sans méfiance par des actes sexuels odieux dans l’espace public virtuel. Le journaliste Julian Dibbell a décrit les événements dans un article paru en 1993 dans le Village Voice, intitulé « A Rape in Cyberspace » (Un viol dans le cyberespace), introduisant des termes tels que « platonique-binaire » ou « esprit-corps » pour décrire la façon dont les personnages du monde virtuel deviennent des extensions divisibles du soi.

Dibbell a fait la chronique des conséquences. Les membres de LambdaMOO ont vécu un traumatisme collectif qui a conduit à des changements dans la conception du monde. Avant l’incident, le créateur Pavel Curtis avait publié un document intitulé « New Direction », dans lequel il affirmait que les ingénieurs étaient des techniciens chargés de mettre en œuvre les décisions de la communauté. Ce document se terminait par un système d’arbitrage : Les utilisateurs peuvent porter plainte les uns contre les autres. Mais tout cela ne faisait que souligner l’absence de définitions formelles, y compris de règles contre les violences sexuelles.

Les mondes qui ont suivi ne sont pas moins pacifiques. En 2007, les autorités allemandes ont enquêté sur des simulations d’abus d’enfants et de distribution de pornographie enfantine dans Second Life. Un joueur vendait de la pornographie enfantine et payait pour avoir des relations sexuelles avec des joueurs mineurs ou se faisant passer pour des mineurs. Un ancien employé a affirmé que la société présentait d’importantes failles de sécurité et qu’elle avait fermé les yeux sur des simulations d’actes sexuels impliquant des enfants. Des rapports de fraude et de blanchiment d’argent ont également fait surface.

En 2016, le premier article d’investigation sur le harcèlement sexuel basé sur la RV est paru ; en 2021, nous avons appris que le pelotage était un problème dans les métavers en devenir.

Alors que l’économie mondiale devrait être dopée à hauteur de 1 600 milliards d’euros d’ici 2035 (selon les données de PWC de 2020) et que 25 % des personnes devraient passer au moins une heure par jour dans un métavers, la question se pose de savoir qui ou quoi sera responsable du maintien de l’ordre public.

Pendant trois décennies, la gouvernance du cyberespace a fonctionné comme un jeu de roulette, alternant de manière apparemment aléatoire entre les forces de l’ordre traditionnelles du monde réel, les développeurs et les groupes d’utilisateurs volontaires auto-assemblés. Avec l’évolution continue des métavers, il est urgent de mieux comprendre qui gouverne et comment.

TL Taylor, professeur d’études comparatives des médias au MIT et directeur du MIT Game Lab, met l’accent sur les approches sociotechniques des communautés en ligne. Selon lui, les développeurs devraient considérer les mondes virtuels comme des « espaces incarnés » après plus de 30 ans de données sociologiques. Ils encouragent la participation des utilisateurs aux communautés en ligne sans tenir compte de la production culturelle et de la co-création.

Selon l’effet Proteus, nous ne sommes pas les seuls à pouvoir modifier et façonner nos autoreprésentations numériques ; les gens, à leur tour, subissent des changements de comportement dans la vie réelle à la suite des expériences numériques vécues par les avatars.

« La culture est dynamique, interactive et adaptative. Il est essentiel que les développeurs soient à l’écoute de la production culturelle rapide et qu’ils disposent d’un cadre qui considère le monde comme un système social vivant et dynamique », explique M. Taylor.

« Les développeurs avisés comprennent que le monde va changer et itérer en fonction de ses utilisateurs, et ils mettent en place des processus tels que des garde-fous de base, en veillant à son émergence. Dans le domaine des jeux, les développeurs les plus intelligents réalisent que les jeux sont des plateformes sociales où les utilisateurs construisent leurs expériences préférées.

Les mondes en ligne nécessitent trois niveaux : L’infrastructure technique permettant d’attraper les mauvais acteurs, la gouvernance définissant la criminalité ou les comportements défavorables, et la gestion de la communauté. Selon M. Taylor, même si le système fournit des outils aux utilisateurs, ceux-ci sont naturellement enclins à s’autogérer, qu’il s’agisse de politiques formelles ou de normes informelles, telles que le respect des droits de l’homme.

« Dans le premier MMORPG, EverQuest, les meilleures guildes utilisaient des sites web tiers pour mettre en place des calendriers d’évaluation négociés entre guildes concurrentes pour un dragon qu’elles voulaient tuer », se souvient Taylor. « Comme le jeu n’offrait aucune méthode permettant aux guildes de gérer des ressources limitées, elles ont trouvé un moyen de s’organiser en utilisant des sites tiers ».

QU’EST-CE QUE L’ÉTAT DE DROIT ?
Le défi auquel sont confrontés tous les faiseurs de monde est de mettre fin à la criminalité en ligne, ou du moins de l’endiguer. Mais qui est responsable de l’ordre public dans le cyberespace et comment celui-ci est-il défini ?

En termes simples, l’État de droit a deux fonctions : Dissuader la malveillance et corriger le comportement humain. Il est à la fois proactif et réactif, établissant des règles de base et des conséquences. Dans l’espace physique, il est essentiellement réactif. Le crime est une action contre la loi établie qui nuit au bien-être public ou à la morale, mais que se passe-t-il dans une situation LambdaMOO, où il n’y a pas de règles définies ou de morale ?

Dans son Second traité sur le gouvernement, publié en 1689, le philosophe John Locke défend l’idée d’un contrat social, dans lequel les gouvernés renoncent à une certaine liberté en échange de la protection de certains « droits naturels » par un gouvernement. Dans ce cas, le pouvoir d’un gouvernement découle du consentement des gouvernés. Ce modèle influe sur la perception de ce que nous considérons comme l’État de droit.

Dans le cyberespace, il existe diverses définitions du « contrat social » et trois types d’arbitres possibles : Les développeurs, les forces de l’ordre du monde réel et les utilisateurs. Quel que soit l’arbitre, la volonté d’abandonner des droits naturels ou le contrôle doit être inhérente pour que la gouvernance fonctionne. La question de savoir quelle entité doit accepter cet échange de droits naturels n’est pas claire.

Dans son livre de 1999, Code and Other Laws of Cyberspace, Lawrence Lessig, professeur à la Harvard Law School, affirme que le code équivaut à une loi dans les technologies du cyberespace, faisant des concepteurs de logiciels les arbitres de ce qui est autorisé à exister dans les espaces virtuels. Si une plateforme a des abonnés payants, il est dans son intérêt de contrôler les mauvais comportements. Si les utilisateurs sont harcelés, attaqués ou menacés, ils quitteront probablement le site, ce qui augmentera le taux de désabonnement. Les développeurs pourraient théoriquement éliminer le crime de ces mondes, mais cela nécessite une sorte d’omniprésence de leur part.

Les développeurs ne peuvent pas tout arrêter. Mais ils peuvent programmer des conventions sociales, telles que des options de blocage et des bulles d’espace personnel, comme celles que l’on trouve dans VRChat. Les entreprises technologiques peuvent engager des équipes de développeurs et des responsables de produits diversifiés pour comprendre les vulnérabilités systémiques et sociales. Mais elles ne peuvent pas coder tous les dommages possibles. D’ailleurs, voudraient-elles être les arbitres ultimes ?

En 2001, le monde de Brittania du MMORPG fantastique Ultima Online a subi une vague d’extinctions et une augmentation de la criminalité à la suite d’une période d' »autosurveillance ». Un problème de meurtres de joueurs a incité les arbitres du développement à appliquer une teinte plus rouge aux noms des tueurs (à l’instar de la loi Megan, une loi fédérale américaine qui rend publiques les informations sur les délinquants sexuels enregistrés) afin d’alerter les nouveaux joueurs et la communauté. Les tueurs se sont attaqués les uns les autres pour rétablir leur réputation, si bien que les développeurs ont fini par rendre les meurtres impossibles, sauf dans certaines zones.

En 2003, Second Life est devenu le premier monde régi par des normes communautaires, définies dans des conditions d’utilisation que tous les utilisateurs doivent accepter. Celles-ci prévoient des mesures punitives : Suspensions temporaires, accès restreint ou résiliation du compte pour les récidivistes, qui migrent souvent vers d’autres mondes et continuent d’enfreindre la loi. Certains développeurs donnent aux utilisateurs des décisions d’action punitive avec des boutons « signaler ce contenu comme abusif », comme les bulles d’espace personnel de High Fidelity.

Cette approche est devenue courante, mais elle n’est guère dissuasive. De plus, ces options ne sont pas uniformes d’un monde à l’autre.

Nos recommandations actuelles en matière d’ordre dans les mondes virtuels. Considérez-le comme une ébauche.

NORMES TECHNIQUES ET NOUVEL ÉTAT
Le métavers est actuellement une itération hypothétique de l’internet, où les utilisateurs peuvent vivre des expériences de réalité mélangée, étendue ou mixte dans différents mondes. Passer d’un monde à l’autre de manière transparente, avec le même avatar ou les mêmes objets (comme dans le film Ready Player One de Spielberg en 2018), reste de la science-fiction ; l’interopérabilité nécessite certaines normes agnostiques.

En 2022, Le métavers, Microsoft, le World Wide Web Consortium (W3C) et les fabricants de puces ont discuté de l’imposition de normes de compatibilité similaires au W3C lors du Metaverse Standards Forum. Des progrès ont été réalisés à cet égard : Le protocole ouvert WebXR connecte les plateformes de RV ou de métavers via les navigateurs, et la blockchain offre des possibilités d’enregistrer des informations sur les utilisateurs, y compris une « ID » de métadonnées virtuelles, pour les avatars et autres possessions (skins).

Lorsque l’interopérabilité se produira, les concepts de gouvernance devront évoluer, y compris les normes d’application de la loi API potentielles permettant à la police de se connecter à diverses plateformes.

Après la Seconde Guerre mondiale en Europe, le passage aux États-nations s’est produit après des siècles où les villes-États étaient les systèmes juridiques prédominants. La conscience nationale collective et la construction d’une nation sont devenues le principal objectif des gouvernements. Le métavers pourrait à nouveau refondre les notions d’État.

Michal Rozynek suggère que les « frontières » des nations peuvent facilement être transplantées dans les mondes en ligne, où les sentiments d’identité nationale peuvent être façonnés et mobilisés. Dans cette optique, les mondes virtuels à la recherche de meilleurs systèmes de gouvernance pourraient transplanter les méthodes de surveillance des frontières familières à l’espace physique, en proposant des passeports et des systèmes de contrôle aux frontières, en excluant certains groupes et en décentralisant davantage le métascape.

La centralisation sera peut-être remplacée par un contrôle communautaire, comme le suggèrent les approches du Web3, puisque les membres des communautés de lancement utilisent la tokenomics pour se contrôler mutuellement et contrôler les nouvelles offres de crypto-monnaies. Snow Crash, un roman de science-fiction écrit en 1992 par Neal Stephenson, semble prémonitoire à cet égard. L’histoire se déroule dans le Los Angeles du XXIe siècle, après un effondrement économique mondial initié par des organisations et des entrepreneurs privés, où les armées de mercenaires et les gardes de sécurité privés deviennent le gouvernement.

L’APPLICATION DE LA LOI DANS LE MONDE RÉEL
Un article de l’économiste Edward Castronova, largement cité en 2001, examine la gouvernance dans le monde Norrath d’EverQuest. Un gouvernement apparaît brièvement au début du jeu, afin de garantir une répartition équitable des biens lorsque les nouveaux joueurs pénètrent dans un monde aux ressources limitées. Puis il se retire, laissant libre cours à l’économie virtuelle. Bien que cela plaide en faveur d’un gouvernement limité dans les mondes en ligne, les deux dernières décennies ont montré les limites de ce modèle.

En 2007, un avatar de Second Life a prétendument violé une autre personne. Des blogueurs ont qualifié cette simulation d’agression de jeu cybernétique, mais la police belge a ouvert une enquête contre l’auteur de l’agression. En 2021, l’utilisatrice Nina Patel a décrit avoir été victime d’un « viol collectif virtuel » dans les 60 secondes qui ont suivi son arrivée sur Meta’s Horizon Venues. Pour poursuivre un viol, il faut actuellement être touché dans le monde réel. En revanche, un avatar est virtuel, bien que la recherche ait démontré à maintes reprises que les actes virtuels violents affectent nos systèmes nerveux périphériques et centraux.

Quel rôle joue le maintien de l’ordre traditionnel lorsque les joueurs sont poussés contre des murs ou des objets proches ? Considérons d’autres extrêmes, où un califat virtuel d’ISIS utilise des espaces en ligne pour le recrutement, ou quelqu’un reconstruit un camp de concentration virtuel dans un espace dédié aux enfants – ce qui s’est produit dans Roblox ? Sans normes métavers, les nouveaux États peuvent également fonctionner de manière indépendante, avec peu de surveillance gouvernementale réelle.

Au cœur des serveurs sécurisés d’Interpol se trouve un environnement de réalité virtuelle dans lequel les agents s’engagent dans différents métavers afin de mieux anticiper et comprendre les crimes possibles. Dans un cas, un chercheur s’est fait passer pour une jeune fille de 13 ans et a été victime de manipulation psychologique, de matériel sexuel, d’insultes racistes et d’une menace de viol.

Avec ses 195 États membres, Interpol se considère comme un leader en matière de police. Le secrétaire général Jurgen Stock a déclaré à BBC News au début de l’année 2023 que l’agence mondiale souhaitait mieux comprendre comment lutter contre la criminalité dans les Meta Horizon Worlds, car les fonctionnaires sont perplexes lorsqu’ils tentent d’appliquer les définitions existantes de la criminalité physique à un espace non physique.

Selon un rapport d’Europol, le Danemark, la Norvège et la Suède ont collaboré à la création d’un groupe de travail sur l’application de la loi en matière de police en ligne pour permettre aux agences européennes de partager leurs expériences et leurs outils. En 2015, la Norvège a mis en place des « Nettpatrulje » ou « patrouilles Internet », accessibles sur les médias sociaux, les jeux et les plateformes de streaming, afin de « partager des informations, recevoir des conseils et effectuer un travail de police en ligne ». Une patrouille en ligne existe dans chaque district de police et compte plus de 800 000 adeptes sur TikTok (@politivest) à l’heure où nous écrivons ces lignes. Pendant les bouclages du COVID-19, l’association française d’aide à l’enfance L’Enfant Bleu a lancé un avatar futuriste aux ailes bleues dans le jeu Fortnite, afin d’encourager les enfants victimes de maltraitance à partager leurs histoires.

Scott Jacques, professeur de criminologie et de justice pénale à l’université d’État de Géorgie, a lancé la Metaverse Society of Criminology, aujourd’hui suspendue, pour sensibiliser les utilisateurs du monde en ligne 2D au métavers en les rencontrant via un avatar.

« Nous ne sommes pas près de traiter le stade un des crimes du métavers parce que nous n’avons pas encore perfectionné le stade un des crimes de l’internet », a expliqué l’avatar de Jacques. « Peut-être que lorsque nous arriverons à un monde métavers plus omniprésent, nous le ferons ».

Jacques estime que si les utilisateurs ont naturellement besoin de créer de l’ordre, les réglementations technologiques fourniront une orientation plus macro. « Si l’avenir du métavers est cloisonné dans la centralisation, alors ce sera comme les médias sociaux, alors les plateformes diront : « Hé, nous ne pouvons pas contrôler ce contenu. S’il est décentralisé, il sera beaucoup plus clair que nous avons besoin d’une tierce partie.

L’évolution du jeu actuel de la roulette des arbitres dépendra de l’efficacité de deux stratégies : La dissuasion – inciter les gens à bien se comporter en les menaçant, par exemple, de suspendre ou d’interdire leur compte ; et la proterrence – inciter les gens à surveiller le comportement des autres, comme les gouvernements qui font pression sur les entreprises technologiques pour qu’elles s’autosurveillent en les menaçant de sanctions.

« Les concepteurs peuvent se débarrasser de certaines opportunités, comme l’élimination de certaines parties du corps sur les avatars pour réduire les incidents de pelotage, mais les entreprises technologiques ne sont généralement pas responsables », explique M. Jacques. « Nous devrons effrayer les responsables de la technologie pour qu’ils mettent fin aux mauvais comportements.

La loi allemande sur l’application des réseaux, NetzG (Netzwerkdurchsetzungsgesetz), est entrée pleinement en vigueur en 2018 et exige des plateformes de médias sociaux comptant plus de deux millions d’utilisateurs qu’elles suppriment les contenus « clairement illégaux » dans les 24 heures, et tous les contenus illégaux dans les sept jours suivant leur publication, sous peine d’une amende maximale de 50 millions d’euros. Les contenus supprimés doivent également être conservés pendant au moins dix semaines et les plateformes doivent présenter des rapports de transparence sur les contenus illégaux tous les six mois. La loi NetzG a été critiquée par des hommes politiques, des groupes de défense des droits de l’homme, des journalistes et des universitaires, qui lui reprochaient d’encourager la censure de l’expression légale.

En revanche, la section 230 de la loi américaine sur la décence des communications (Communications Decency Act) protège les propriétaires de plateformes de toute responsabilité pour les contenus de tiers. Ses partisans considèrent qu’elle est nécessaire pour défendre les droits à la liberté d’expression garantis par le premier amendement. Les protections accordées à Google/YouTube et Twitter (X) ont été confirmées dans deux affaires portées devant la Cour suprême des États-Unis : Gonzalez v. Google LLC, dans laquelle le plaignant alléguait que la plateforme YouTube de Google radicalisait les recrues d’ISIS grâce à son algorithme de recommandation ; et Twitter, Inc. v. Taamneh, dans laquelle Twitter (X) aurait aidé et encouragé l’attaque d’une boîte de nuit d’Istanbul en permettant à ISIS de recruter et de diffuser de la propagande.

Un amicus curiae, présenté à la Cour par les modérateurs de Reddit, a souligné, conformément à l’article 230, que les plateformes en ligne devraient avoir la possibilité de prendre des décisions de modération de contenu basées sur les normes et les lignes directrices de la communauté, plutôt que de suivre une approche unique. Il s’agit là d’un argument de poids en faveur des arbitres utilisateurs.

Le métavers et le Web3 appellent à une plus grande autonomie. La modération par les utilisateurs est une pratique consacrée de l’internet qui reste très répandue, et le modèle produit souvent des systèmes de gouvernance ou des hiérarchies communautaires complexes et remarquables, où les membres sont nommés pour assumer de facto des rôles d’application de la loi.

« En l’absence de développeurs ou de policiers qui s’occupent des communautés, les personnes qui veulent le meilleur pour leur vie en ligne interviennent pour combler le vide. Sur Twitch, par exemple, les utilisateurs essaient de cultiver des chaînes saines. J’espère toujours que leur travail novateur ne se perdra pas. Leur travail invisible permet de maintenir les espaces en ligne », explique M. Taylor.

À certains égards, la gouvernance citoyenne du cyberespace ressemble aux ordres tribaux amérindiens où, pendant des milliers d’années, les tribus se sont autogouvernées par le biais de lois, de traditions culturelles, de coutumes religieuses, de systèmes de parenté et de clans. Nombre d’entre elles fonctionnent de manière démocratique, en répartissant le pouvoir entre un chef et un conseil tribal, et en fournissant une structure communautaire.

Il est de plus en plus impossible de maintenir l’ordre dans tous les mondes virtuels, en raison de normes techniques différentes. Les forces de l’ordre ne peuvent pas s’attendre à être présentes ou efficaces dans l’ensemble des métavers, qui sont encore largement dispersés. Pour l’instant, la roulette des arbitres du cyberespace se poursuit.

Mais le métavers continuera d’évoluer. À mesure qu’il évoluera, chaque groupe d’arbitres – développeurs, forces de l’ordre et membres de la communauté – devra renforcer sa coopération et partager certaines normes, afin de cultiver des modèles de sécurité virtuelle réactifs qui, d’une manière ou d’une autre, resteront suffisamment poreux pour nous accueillir tous.

WP Twitter Auto Publish Powered By : XYZScripts.com