Qui va établir l’éthique des métavers ?

Le « métavers » n’est pas encore là, et lorsqu’il arrivera, il ne s’agira pas d’un domaine unique contrôlé par une seule entreprise. Facebook a voulu créer cette impression en changeant son nom en Meta, mais son changement de nom a coïncidé avec des investissements majeurs de Microsoft et de Roblox. Tous cherchent à façonner la manière dont la réalité virtuelle et les identités numériques seront utilisées pour organiser une plus grande partie de notre vie quotidienne, du travail aux soins de santé en passant par le shopping, les jeux et d’autres formes de divertissement.

Le concept de métavers n’est pas nouveau. Le terme a été inventé par le romancier de science-fiction Neal Stephenson dans son livre Snow Crash (1992), qui dépeint une dystopie hypercapitaliste dans laquelle l’humanité a collectivement opté pour la vie dans des environnements virtuels. Jusqu’à présent, l’expérience n’a pas été moins dystopique dans le monde réel. La plupart des expériences d’environnements numériques immersifs ont été immédiatement entachées d’intimidation, de harcèlement, d’agressions sexuelles numériques et de tous les autres abus que nous en sommes venus à associer aux plateformes qui « vont vite et cassent tout ».

Rien de tout cela ne devrait être une surprise. L’éthique des nouvelles technologies a toujours été à la traîne des innovations elles-mêmes. C’est pourquoi des parties indépendantes devraient fournir des modèles de gouvernance le plus tôt possible, avant que des sociétés intéressées ne le fassent en pensant à leurs propres marges bénéficiaires.

L’évolution de l’éthique dans l’intelligence artificielle est instructive à cet égard. À la suite d’une percée majeure dans la reconnaissance d’images par l’IA en 2012, l’intérêt des entreprises et des gouvernements pour ce domaine a explosé, attirant d’importantes contributions d’éthiciens et de militants qui ont publié (et republié) des recherches sur les dangers de l’entraînement de l’IA sur des ensembles de données biaisés. Un nouveau langage a été développé pour intégrer dans la conception des nouvelles applications d’IA les valeurs que nous voulons défendre.

Grâce à ces travaux, nous savons désormais que l’IA « automatise effectivement l’inégalité », comme le dit Virginia Eubanks de l’université d’Albany, SUNY, et qu’elle perpétue les préjugés raciaux dans l’application des lois. Pour attirer l’attention sur ce problème, l’informaticienne Joy Buolamwini, du MIT Media Lab, a lancé l’Algorithmic Justice League en 2016.

Cette réponse de la première vague a braqué un projecteur public sur les questions éthiques liées à l’IA. Mais elle a rapidement été éclipsée par une nouvelle poussée au sein de l’industrie pour l’autorégulation. Les développeurs d’IA ont introduit des boîtes à outils techniques pour effectuer des évaluations internes et tierces, espérant que cela atténuerait les craintes du public. Cela n’a pas été le cas, car la plupart des entreprises qui développent l’IA ont des modèles commerciaux qui sont en conflit ouvert avec les normes éthiques que le public souhaite qu’elles respectent.

Pour prendre l’exemple le plus courant, Twitter et Facebook ne déploieront pas l’IA de manière efficace contre l’ensemble des abus commis sur leurs plateformes, car cela nuirait à l' »engagement » (l’indignation) et donc aux profits. De même, ces entreprises et d’autres entreprises technologiques ont tiré parti de l’extraction de valeur et des économies d’échelle pour obtenir des quasi-monopoles sur leurs marchés respectifs. Elles ne sont pas prêtes à renoncer au pouvoir qu’elles ont acquis.

Plus récemment, des consultants d’entreprise et divers programmes ont professionnalisé l’éthique de l’IA pour faire face aux risques de réputation et aux risques pratiques des échecs éthiques. Les personnes qui travaillent sur l’IA au sein des grandes entreprises technologiques sont amenées à se pencher sur des questions telles que la question de savoir si une fonction doit être activée ou désactivée par défaut, s’il est approprié de déléguer une tâche à l’IA ou non, et si les données utilisées pour former les applications d’IA sont fiables. À cette fin, de nombreuses entreprises technologiques ont créé des comités d’éthique prétendument indépendants. Toutefois, la fiabilité de cette forme de gouvernance a depuis été remise en question à la suite de l’éviction très médiatisée de chercheurs internes qui avaient soulevé des inquiétudes quant aux implications éthiques et sociales de certains modèles d’IA.

Pour établir une base éthique solide pour les métavers, nous devons devancer l’autorégulation du secteur avant qu’elle ne devienne la norme. Nous devons également être attentifs à la manière dont les métavers s’écartent déjà de l’IA. Alors que l’IA a été largement centrée sur les opérations internes des entreprises, le métavers est résolument centré sur le consommateur, ce qui signifie qu’il s’accompagnera de toutes sortes de risques comportementaux que la plupart des gens n’auront pas envisagés.

Tout comme la réglementation des télécommunications (plus précisément la section 230 de la loi américaine sur la décence des communications de 1996) a fourni le modèle de gouvernance des métavers, la réglementation des médias sociaux deviendra le modèle de gouvernance par défaut du métavers. Cela devrait tous nous inquiéter. Bien que nous puissions facilement prévoir bon nombre des abus qui se produiront dans les environnements numériques immersifs, notre expérience des médias sociaux suggère que nous pourrions sous-estimer l’ampleur qu’ils atteindront et les effets d’entraînement qu’ils auront.

Il vaut mieux surestimer les risques que de répéter les erreurs des 15 dernières années. Un environnement entièrement numérique offre la possibilité d’une collecte de données encore plus exhaustive, y compris de données biométriques personnelles. Et comme personne ne sait exactement comment les gens réagiront à ces environnements, il est tout à fait justifié d’utiliser des bacs à sable réglementaires avant d’autoriser un déploiement plus large.

Il est encore possible d’anticiper les défis éthiques des métavers, mais le temps presse. En l’absence d’une surveillance indépendante efficace, il est presque certain que ce nouveau domaine numérique sera dévoyé, recréant tous les abus et injustices de l’IA et des médias sociaux, et en ajoutant d’autres que nous n’avons même pas prévus. Une Ligue de justice des métavers est peut-être notre meilleur espoir.

WP Twitter Auto Publish Powered By : XYZScripts.com