Il n’y a rien que l’internet aime plus que de se moquer d’une nouvelle fonctionnalité de Meta. Peut-être consciente de cela, la société de Mark Zuckerberg a été relativement prudente avec la vitesse à laquelle elle a déployé son nouveau générateur d’autocollants AI pour Facebook Messenger, WhatsApp et Instagram.
Le générateur, qui utilise le modèle de langage étendu Llama 2 de Meta, n’a connu qu’une diffusion limitée jusqu’à présent. Il semble que cette décision ait été judicieuse, car les premiers utilisateurs ont montré que les mesures de protection du contenu n’étaient pas très efficaces (voir notre sélection des meilleurs générateurs d’art par IA pour d’autres outils).
L’une des craintes que suscite la génération d’images par l’IA est qu’elle puisse être utilisée pour créer des contenus inappropriés ou offensants. Le générateur d’autocollants Facebook AI semble exceller dans ce domaine.
L’outil n’a été annoncé que la semaine dernière et fait encore l’objet de tests alors qu’il est déployé auprès d’un nombre limité d’utilisateurs dans les pays anglophones. Mais nous avons déjà tout vu, des célébrités nues aux Super Marios armés en passant par… Karl Marx avec des seins.
Les autocollants ont connu un grand succès dans les applications de messagerie, permettant aux utilisateurs de créer leur propre langage de mèmes. Les utilisateurs sont libres de créer des images obscènes en utilisant leur propre contenu, mais on aurait pu s’attendre à ce que Meta tienne compte de son image de marque lorsqu’elle déploie son propre outil.
Il semble avoir fait quelques tentatives pour empêcher les gens de générer du contenu offensant dans le générateur d’IA, qu’il a l’intention d’intégrer dans Messenger, Instagram et Facebook Stories et les messages directs et Whatsapp. Les utilisateurs signalent que Meta a bloqué l’utilisation de certains mots dans les invites de texte, et que leur utilisation entraîne un message d’avertissement.
Mais les utilisateurs ont trouvé un moyen facile de contourner les restrictions en utilisant soit des fautes d’orthographe intentionnelles, soit des descriptions plus longues qui évitent un mot spécifique. Lorsqu’elles sont répétées plusieurs fois, il semble qu’elles finissent par générer le contenu souhaité. Mais il semble qu’il soit également possible de générer beaucoup de contenu à risque sans aller aussi loin, notamment en créant des ressemblances avec des personnes et des personnages célèbres.
Parmi les créations d’autocollants d’IA partagées sur X au cours de la première semaine de lancement, on trouve des Sonic the Hedgehogs enceintes, des enfants soldats et des images nues de Justin Trudeau, Donald Trump et Joe Biden. Après s’être rendu compte que le métavers ne faisait pas recette, les métavers ont réorienté leur énergie vers l’IA, mais si plusieurs développeurs ont introduit avec un certain succès des mesures de protection du contenu pour les générateurs d’images d’IA, Facebook ne semble pas avoir été aussi rigoureux.
La semaine a été riche en lancements d’outils d’IA plus sérieux. Canva a annoncé toute une série de nouveaux ajouts dans le Canva Magic Studio, Anything World a annoncé le lancement d’un outil d’IA pour l’animation 3D et Adobe a annoncé un nouvel outil d’IA pour l’édition de photos.