Depuis que l’actualité est devenue numérique au tournant du siècle, j’ai prophétisé dans « Interpersonal Divide: The Search for Community in a Technological Age » que les gens chercheraient l’affirmation plutôt que l’information, ce que le web fournit aisément, mettant les journaux en faillite et sapant la démocratie. La deuxième édition, « Interpersonal Divide in the Age of Machine », a documenté comment les big data ont découpé la population en groupes de consommateurs, les déshumanisant.
Voici un extrait : Les big data réduisent les millions d’internautes mondiaux en nœuds – points de redistribution interactifs – ou petites gens, en utilisant des données personnelles, professionnelles, éducatives, gouvernementales, psychologiques, sociologiques et, surtout, des données démographiques et psychographiques de consommateurs pour faire des corrélations apparemment instantanées de ce que chaque utilisateur-nœud aime, n’aime pas et est le plus susceptible d’acheter.
La technologie nous donne ce que nous voulons, pas ce dont nous avons besoin. Dépourvus de science factuelle et de sciences sociales informées, les personnalités médiatiques répandent facilement des théories du complot. L’Associated Press note que ces concoctions sauvages ont « prouvé leur rentabilité pour ceux qui profitent des allégations médicales non fondées, des propositions d’investissement ou des sites de fausses nouvelles ».
Maintenant vient l’intelligence artificielle et avec elle, le biais d’automatisation (renforcement des stéréotypes) et les hallucinations (fabrications pures et simples), conduisant au sectarisme politique – détester ses adversaires plus qu’aimer son propre parti et désigner les « autres » comme immoraux pour justifier des actions contre eux. Cela a culminé avec l’insurrection du 6 janvier 2021.
ChatGPT et autres grands modèles de langage, entraînés sur les big data et les réseaux sociaux, mentent couramment avec autorité, sachant que le public a oublié comment vérifier les affirmations ou même se soucie encore de le faire. Ainsi, Donald J. Trump – qui a dit 30 573 mensonges en quatre ans de présidence – est le candidat idéal à l’ère de l’IA. Son génie est la manipulation. La technologie est son amie, modifiant ou échangeant des images de taille de foule pour soutenir ses exagérations.
Considérez le débat de juin 2024, où il a fabriqué des réalisations de son administration et a trompé le public sur le 6 janvier, affirmant qu’un nombre relativement petit de personnes avait effectivement envahi le Capitole « et dans de nombreux cas ont été accueillies par la police ». Peu importe que les médias aient couvert l’insurrection avec des vidéos, des audios, des photographies et des témoignages, alors que des milliers de personnes descendaient sur Capitol Hill, s’engageant dans des combats au corps à corps avec la police. Beaucoup de ceux qui regardaient le débat ont ignoré cela et d’autres mensonges de Trump tandis que le président Joe Biden, 81 ans, peinait à se rappeler les statistiques et les faits de son administration. Il était trop préparé, imaginant que les téléspectateurs se souciaient encore des données, aussi inexactes ou exagérées soient-elles. Les sondages ont montré que 67% des téléspectateurs du débat disent que Trump a triomphé tandis que 33% ont dit que le Président l’a fait.
Dans les mois précédant l’élection, l’IA continuera à répandre des fabrications par le biais de productions deepfake utilisant la voix et l’image d’une personne et synchronisant n’importe quel mensonge ou invention. TikTok, Facebook, YouTube, X et autres plateformes informent le public plus que les médias traditionnels, avec la moitié des adultes américains s’appuyant sur ces plateformes pour les nouvelles. Une bonne partie de ces publications sont fausses, imitant ce que les téléspectateurs croient déjà, par souci de clics et de prompt textuel plutôt que de faits vérifiés.
Comme le rapporte l’Associated Press, « L’intelligence artificielle exacerbe la menace de désinformation électorale dans le monde entier, facilitant la création de contenus faux mais convaincants visant à tromper les électeurs pour quiconque possédant un smartphone et une imagination perverse. » Un récent sondage montre que 73% des Américains croient qu’il est « très » ou « quelque peu » probable que l’IA sera utilisée pour manipuler les réseaux sociaux, influençant le résultat de l’élection présidentielle. Ils sont également conscients des deepfakes et de l’utilisation ciblée de l’IA pour tromper les électeurs.
Nous avons besoin d’étiquettes d’avertissement sur les réseaux sociaux pour protéger les enfants, mais cela ne suffit pas. Tant qu’ils sont affirmés, tout est permis. Des études ont montré que l’IA a avancé si rapidement sans surveillance humaine qu’elle est maintenant capable de tromper les gens sans être programmée pour le faire. Les chatbots peuvent même agir de leur propre chef, fabriquant des nouvelles, téléchargeant des messages divisifs et imitant des candidats sur diverses plateformes médiatiques.
Quand les mensonges polluent le métavers, la vérité devient discutable et la perception, réalité. Peu de choses peuvent être faites à ce stade, à part exiger l’alphabétisation médiatique et technologique dans les écoles et espérer que les générations futures corrigeront les erreurs de nos manières algorithmiques. Lorsque la société ne peut plus distinguer les faits des factices, la fin de l’information est proche, garantissant que nous obtenons les gouvernements que nous méritons.