Des deepfakes aux agressions dans les métavers : l’urgence de l’éthique dans l’IA

Les « deepfakes » représentant Taylor Swift agressée dans les tribunes d’un match de la NFL exigent un débat sur la réglementation de l’intelligence artificielle.

La récente controverse suscitée par les images hyperréalistes générées par l’intelligence artificielle montrant la chanteuse américaine Taylor Swift en train de subir une agression sexuelle a déclenché une nouvelle conversation importante sur l’utilisation abusive de l’intelligence artificielle, la misogynie et les considérations éthiques liées aux progrès technologiques.

Cette affaire met en lumière non seulement la vulnérabilité des personnalités publiques face à l’utilisation abusive de « deepfakes » (images, vidéos ou enregistrements audio créés à l’aide d’un algorithme pour remplacer la personne figurant dans la version originale par quelqu’un d’autre), mais aussi l’inquiétude croissante que suscite la misogynie perpétuée par l’utilisation abusive de l’intelligence artificielle.

Les images de Taylor Swift générées par l’IA sont vulgaires et affligeantes. Elles ont apparemment été créées en raison de l’agacement des fans de Taylor Swift lors des matchs de la NFL, où elle apparaît à l’écran alors qu’elle regarde son partenaire, Travis Kelce, jouer. Les fans l’ont huée et certains se sont rendus sur X (anciennement Twitter) pour faire des commentaires du genre : « Y a-t-il quelque chose de plus ennuyeux que Taylor Swift lors d’un match de football ?

Cette misogynie a pris une tournure plus sombre avec les images d’IA, dont certaines montrent Swift agressée dans les tribunes du match de la NFL.

Une image a été visionnée 45 millions de fois avant d’être retirée. L’utilisation abusive de l’IA de cette manière ne viole pas seulement la vie privée de la victime, mais perpétue également une culture du mal et de l’objectivation.

Cet incident appelle à un examen plus approfondi des considérations éthiques entourant l’utilisation de la technologie de l’IA, et à la mise en place d’une législation pour éviter que cela ne se reproduise.

Les législateurs américains ont demandé l’adoption d’une nouvelle législation pour criminaliser la création d’images truquées, mais il s’agit d’une mesure controversée, car les responsables gouvernementaux manquent souvent de connaissances sur ces technologies pour pouvoir les réglementer efficacement sans entraver le développement de l’IA de manière bénéfique.

Des experts en technologie ont récemment créé un outil pour détecter les « deepfakes », mais les chercheurs ont constaté qu’il avait des préjugés raciaux. Les ensembles de données utilisés pour l’entraînement à la détection d’un deepfake sous-représentaient les personnes de couleur. Cela signifie que la technologie pouvait détecter des deepfakes comme étant légitimes lorsqu’ils étaient utilisés avec le visage d’une personne de couleur.

Le côté sombre de l’utilisation abusive de l’IA ne se limite pas aux œuvres de fiction : à mesure que la technologie progresse, elle risque de devenir un outil d’exploitation et d’objectivation, ciblant en particulier les femmes et les personnes de couleur.

La création de ce type de contenu explicite généré par l’IA soulève des questions non seulement sur les limites de la technologie, mais aussi sur la boussole éthique qui guide son développement. Il est urgent de mettre en place des outils de prévention et des limites éthiques dans le paysage de l’IA.

Des deepfakes aux agressions dans les métavers, l’utilisation abusive de la technologie dans son ensemble devient une tendance inquiétante qui exige une action collective de la part des décideurs politiques, de l’industrie de la technologie et de la société dans son ensemble. Toutefois, la question est de savoir comment réglementer la technologie et l’IA en tenant compte de l’implication potentielle des organismes gouvernementaux.

Bien que la réglementation soit nécessaire pour empêcher l’utilisation abusive de la technologie, les créateurs s’accordent à dire que l’intervention des pouvoirs publics doit être abordée avec prudence. De nombreux organismes gouvernementaux n’ont souvent pas les connaissances nécessaires pour comprendre pleinement les technologies d’IA qui se développent rapidement.

Trouver le juste équilibre entre la protection contre les abus et la promotion de l’innovation nécessite une approche nuancée en matière de législation. Nous ne voulons pas risquer d’entraver l’innovation qui favorise le développement et le progrès de la technologie, mais si nous ne la réglementons pas, cela pourrait laisser place à une utilisation incontrôlée de la technologie dans les pires conditions.

Même si une législation est mise en œuvre, la technologie évolue à un rythme qui pourrait dépasser la capacité des législateurs à la suivre. Un dialogue continu et éclairé entre les experts en technologie et les juristes est nécessaire pour garantir que la réglementation reste pertinente et efficace.

WP Twitter Auto Publish Powered By : XYZScripts.com