Les deepfakes et les robocalls de l’IA vont-ils perturber les élections de 2024 ?

Dans les années 1970, bien avant les hackers, les trolls et les edgelords, une société de cassettes audio a inventé un slogan publicitaire qui posait une question piège : « C’est du direct ou c’est du Memorex ? » Ce message jouait avec la réalité, suggérant qu’il n’y avait pas de différence de qualité sonore entre une performance en direct et de la musique enregistrée sur cassette.

À l’ère des mensonges et des tromperies des métavers, on peut se poser des questions similaires sur ce qui est réel et ce qui ne l’est pas : Le président Biden est-il en train de téléphoner aux démocrates pour leur dire de ne pas voter ? Donald Trump est-il en train de discuter avec des hommes noirs sous un porche ? Les États-Unis vont-ils entrer en guerre avec la Russie ? Les faits et la fiction semblent interchangeables en cette année électorale où les contenus générés par l’IA ciblent les électeurs d’une manière autrefois inimaginable.
La politique américaine est habituée à la chicanerie – les opposants à Thomas Jefferson ont averti le public en 1800 qu’il brûlerait leurs bibles s’il était élu – mais l’intelligence artificielle est en train de transformer la réalité en un monde de jeu vidéo d’avatars et de « deepfakes » conçus pour semer la confusion et le chaos. La capacité des programmes d’intelligence artificielle à produire et à diffuser de la désinformation avec rapidité et ampleur est l’arme des loups solitaires provocateurs et des agences de renseignement en Russie, en Chine et en Corée du Nord.

« La vérité elle-même sera difficile à déchiffrer. De nouveaux outils puissants et faciles d’accès seront à la disposition des candidats, des théoriciens du complot, des États étrangers et des trolls en ligne qui veulent tromper les électeurs et saper la confiance dans nos élections », a déclaré Drew Liebert, directeur de l’initiative californienne pour la technologie et la démocratie (California Initiative for Technology and Democracy, ou CITED), qui cherche à faire adopter une législation pour limiter la désinformation. « Imaginez qu’un faux appel téléphonique (du gouverneur Newsom) soit envoyé à des millions de Californiens à la veille des élections pour leur annoncer que leur lieu de vote a changé.

Cette menace survient alors que l’électorat polarisé ressent encore les effets d’une pandémie qui a poussé de nombreux Américains à se replier sur eux-mêmes et qui a accru leur dépendance à l’égard de l’internet. Le colportage de la désinformation s’est accéléré à mesure que la méfiance à l’égard des institutions s’accroît et que les vérités sont déformées par des campagnes et des médias sociaux qui se nourrissent de conflits. Les Américains sont à la fois sensibles et méfiants à l’égard de l’IA, non seulement parce qu’elle est susceptible d’exploiter des sujets de discorde tels que la race et l’immigration, mais aussi parce qu’elle est capable, comme dans la science-fiction, de voler des emplois et de réorganiser notre mode de vie.
La Russie a orchestré une vague de piratages et de tromperies pour tenter de perturber les élections américaines de 2016. Les robots de désinformation se sont imposés en janvier lorsque la Chine s’est ingérée sans succès dans les élections taïwanaises en créant de faux présentateurs de journaux télévisés. Selon une récente analyse des menaces réalisée par Microsoft, un réseau d’agents parrainés par la Chine, connu sous le nom de Spamouflage, utilise des contenus d’IA et des comptes de médias sociaux pour « recueillir des renseignements et des précisions sur les principaux groupes démographiques en vue de l’élection présidentielle américaine ».

Selon le rapport de Microsoft, l’un des stratagèmes chinois de désinformation consiste à prétendre que le gouvernement américain a délibérément déclenché les incendies de Maui en 2023 pour « tester une “arme météorologique” de qualité militaire ».
Une nouvelle enquête menée par le Polarization Research Lab a mis en évidence les craintes des Américains à l’égard de l’intelligence artificielle : 65 % s’inquiètent des violations de la vie privée, 49,8 % s’attendent à ce que l’IA affecte négativement la sécurité des élections et 40 % pensent que l’IA pourrait nuire à la sécurité nationale. Un sondage réalisé en novembre par l’UC Berkeley a révélé que 84 % des électeurs californiens étaient préoccupés par les dangers de la désinformation et des deepfakes de l’IA pendant la campagne de 2024.
Plus de 100 projets de loi ont été déposés dans au moins 39 États afin de limiter et de réglementer les documents générés par l’IA, selon le Voting Rights Lab, une organisation non partisane qui suit la législation relative aux élections. Au moins quatre mesures sont proposées en Californie, dont des projets de loi des députés Buffy Wicks (D-Oakland) et Marc Berman (D-Menlo Park) qui exigeraient que les sociétés d’IA et les plateformes de médias sociaux intègrent des filigranes et d’autres données de provenance numérique dans les contenus générés par l’IA.

« Il s’agit d’un moment décisif. En tant que législateurs, nous devons comprendre et protéger le public », a déclaré Adam Neylon, législateur républicain de l’État du Wisconsin, qui a adopté en février un projet de loi bipartisan visant à infliger une amende de 1 000 dollars aux groupes politiques et aux candidats qui n’ajoutent pas de clauses de non-responsabilité aux publicités de campagne basées sur l’IA. « Beaucoup de gens se méfient des institutions. Cette méfiance s’est érodée avec la fragmentation des médias et des médias sociaux. Si l’on ajoute l’IA à ce mélange, cela pourrait poser un réel problème ».

Depuis le lancement du ChatGPT en 2022, l’IA a suscité une certaine fascination en raison de son pouvoir de réimaginer la manière dont les chirurgies sont pratiquées, la musique est faite, les armées sont déployées et les avions sont pilotés. Sa capacité plus effrayante à créer des espiègleries et des images truquées peut être inoffensive – le pape François portant un manteau bouffant de marque au Vatican – ou criminelle. Des photographies d’enfants ont été manipulées à des fins pornographiques. Les experts mettent en garde contre la transformation des voitures sans conducteur en armes, la multiplication des cyberattaques contre les réseaux électriques et les institutions financières, et la menace d’une catastrophe nucléaire.

La sophistication de la tromperie politique coïncide avec la méfiance de nombreux Américains – qui croient les théoriciens du complot tels que la députée Marjorie Taylor Greene (R-Ga.) – à l’égard de l’intégrité des élections. L’insurrection du 6 janvier 2021 au Capitole était le résultat d’une campagne de désinformation qui a rallié des radicaux en ligne et menacé la démocratie de la nation en raison de fausses affirmations selon lesquelles l’élection de 2020 avait été volée à Trump. Ces fantasmes se sont intensifiés chez de nombreux partisans de l’ancien président et constituent un terrain fertile pour les subterfuges de l’IA.
Un rapport sur les risques mondiaux récemment publié par le Forum économique mondial a mis en garde contre le fait que la désinformation qui sape les gouvernements nouvellement élus peut entraîner des troubles tels que des protestations violentes, des crimes de haine, des confrontations civiles et le terrorisme.
Toutefois, le contenu généré par l’IA n’a pas encore perturbé les élections de cette année dans le monde entier, y compris au Pakistan et au Bangladesh. Les mensonges politiques rivalisent pour attirer l’attention dans un bruit beaucoup plus large de médias sociaux qui englobe tout, du dernier album de Beyoncé aux choses étranges que font les chats. Les « deepfakes » et autres tromperies, y compris les images manipulées de Trump servant le petit-déjeuner dans un Waffle House et d’Elon Musk vantant les mérites de la crypto-monnaie, sont rapidement démasquées et discréditées. Et la désinformation pourrait être moins susceptible d’influencer les électeurs aux États-Unis, où des années de politique partisane ont durci les sentiments et les loyautés.

« Un nombre étonnamment faible de personnes sont indécises quant à la personne qu’elles soutiennent », a déclaré Justin Levitt, spécialiste du droit constitutionnel et professeur à la Loyola Law School. Il ajoute que l’isolement de la pandémie, lorsque de nombreuses personnes se sont repliées sur des mondes virtuels, est en train de s’estomper, car la plupart de la population est revenue à la vie d’avant la pandémie de grippe aviaire.
« Nous avons un pouvoir d’action dans nos relations », a-t-il déclaré, ce qui réduit les chances de réussite des campagnes de désinformation à grande échelle. « Les liens que nous entretenons les uns avec les autres en réduiront l’impact.
L’organisation à but non lucratif TrueMedia.org propose des outils aux journalistes et à d’autres personnes désireuses d’identifier les mensonges générés par l’IA. Son site web répertorie un certain nombre de « deepfakes », dont l’arrestation de M. Trump par une nuée de policiers new-yorkais, une photo du président Biden habillé en treillis militaire postée lors de l’attaque du Hamas contre Israël l’année dernière, et une vidéo du procureur du district de Manhattan, Alvin L. Bragg, démissionnant après avoir blanchi M. Trump de toute accusation criminelle dans l’affaire de l’argent occulte en cours.

NewsGuard traque et découvre également les mensonges de l’IA, y compris les récentes imitations de stars hollywoodiennes soutenant la propagande russe contre l’Ukraine. Dans une vidéo, Adam Sandler, dont la voix est truquée et doublée en français, dit à Brad Pitt que le président ukrainien Volodymyr Zelensky « coopère avec les nazis ». La vidéo a été repostée 600 fois sur la plateforme sociale X.
La Commission fédérale des communications a récemment interdit les appels téléphoniques automatisés générés par l’IA, et le Congrès fait pression sur les entreprises de technologie et de médias sociaux pour qu’elles endiguent la vague de tromperies.
En février, Meta, Google, TikTok, OpenAI et d’autres entreprises se sont engagés à prendre des « précautions raisonnables » en apposant des avertissements et des étiquettes sur les contenus politiques générés par l’IA. La déclaration n’a pas été aussi forte ou étendue que l’espéraient certains observateurs des élections, mais elle a été soutenue par des dirigeants politiques aux États-Unis et en Europe en cette année où les électeurs d’au moins 50 pays se rendront aux urnes, y compris en Inde, au Salvador et au Mexique.

« Je suis plutôt négatif à l’égard des entreprises de médias sociaux. Elles ne font intentionnellement rien pour l’arrêter », a déclaré Hafiz Malik, professeur d’ingénierie électrique et informatique à l’université du Michigan-Dearborn. « Je ne peux pas croire que des entreprises multimilliardaires et trilliardaires soient incapables de résoudre ce problème. Elles ne le font pas. Leur modèle économique consiste à augmenter le nombre d’actions, de clics et d’argent ».
M. Malik travaille depuis des années à la détection des « deepfakes ». Il est souvent sollicité par des vérificateurs de faits pour analyser des contenus vidéo et audio. Ce qui est frappant, dit-il, c’est l’évolution rapide des programmes et des outils d’IA qui ont démocratisé la désinformation. Il y a quelques années encore, seules des entreprises parrainées par l’État pouvaient produire ce type de contenu. Aujourd’hui, les attaquants sont beaucoup plus sophistiqués et conscients. Ils ajoutent du bruit ou de la distorsion au contenu pour rendre les « deepfakes » plus difficiles à détecter sur des plateformes telles que X et Facebook.

 

Mais l’intelligence artificielle a ses limites lorsqu’il s’agit de reproduire les candidats. Selon lui, la technologie ne peut pas reproduire exactement les schémas d’élocution, les intonations, les tics faciaux et les émotions d’une personne. « Ils peuvent donner l’impression d’être plats et monotones », ajoute M. Malik, qui a examiné des contenus politiques aux États-Unis, au Nigeria, en Afrique du Sud et au Pakistan, où les partisans du leader de l’opposition emprisonné Imran Khan ont cloné sa voix et créé un avatar pour des rassemblements politiques virtuels. Les contenus générés par l’IA « laisseront des traces », a déclaré M. Malik, suggérant toutefois qu’à l’avenir, la technologie pourrait imiter plus précisément les individus.
« Des choses qui étaient impossibles il y a quelques années sont aujourd’hui possibles », a-t-il déclaré. « L’ampleur de la désinformation est inimaginable. Le coût de production et de diffusion est minime. Il n’y a pas besoin de beaucoup de savoir-faire. Il suffit ensuite de cliquer sur un bouton pour que le message atteigne un niveau de viralité tel qu’il peut se propager à son propre rythme. On peut faire du micro-ciblage ».

La technologie et les plateformes de médias sociaux ont recueilli des données sur des dizaines de millions d’Américains. « Les gens connaissent vos préférences jusqu’à vos chaussures », a déclaré l’ancienne procureur Barbara McQuade, auteur de « Attack from Within : How Disinformation Is Sabotaging America ». Ces informations personnelles permettent aux trolls, aux pirates informatiques et à tous ceux qui produisent de la désinformation générée par l’intelligence artificielle de se concentrer sur des groupes spécifiques ou sur des circonscriptions électorales stratégiques dans les États en transition, dans les heures qui précèdent immédiatement le début du scrutin.
« C’est là que les dommages les plus graves peuvent être causés », a déclaré M. McQuade. Le faux appel téléphonique de Biden invitant les gens à ne pas voter dans le New Hampshire, a-t-elle dit, « était sans conséquence parce qu’il s’agissait d’une primaire incontestée. Mais en novembre, si quelques personnes seulement l’ont entendu et y ont cru, cela pourrait faire la différence dans le résultat d’une élection. Ou bien vous recevez un message ou un texte généré par l’IA qui semble provenir du secrétaire d’État ou d’un greffier de comté et qui vous dit qu’il n’y a plus d’électricité dans le bureau de vote où vous avez voté et que l’élection a donc été reportée au mercredi ».
Les nouveaux outils d’IA, a-t-elle ajouté, « enhardissent les gens parce que le risque de se faire prendre est faible et que l’on peut avoir un impact réel sur une élection ».

En 2022, la Russie a utilisé deepfake dans un stratagème pour mettre fin à sa guerre avec l’Ukraine. Des pirates ont mis en ligne une vidéo manipulée par l’IA montrant le président ukrainien Volodymyr Zelensky ordonnant à ses forces de se rendre. La même année, Cara Hunter était candidate à un siège législatif en Irlande du Nord lorsqu’une vidéo d’elle prétendument en train d’avoir des relations sexuelles explicites est devenue virale. Le clip généré par l’IA ne lui a pas fait perdre l’élection – elle l’a remportée de justesse – mais ses conséquences ont été profondes.

« Quand je dis que cela a été la période la plus horrible et la plus stressante de toute ma vie, je n’exagère pas », a-t-elle déclaré au Belfast Telegraph. « Pouvez-vous imaginer vous réveiller tous les jours depuis 20 jours avec votre téléphone qui n’arrête pas de sonner avec des messages ?
« Même en entrant dans le magasin, a-t-elle ajouté, je vois que les gens sont gênés par moi et cela remet en question votre intégrité, votre réputation et votre morale.

WP Twitter Auto Publish Powered By : XYZScripts.com