Mark Zuckerberg a parié des dizaines de milliards de dollars sur le « métavers », pour finalement se faire moquer à chaque fois de l’idée d’un réseau social immersif en réalité virtuelle. En fin de compte, sa promesse d’ajouter des jambes aux avatars numériques des utilisateurs (auparavant représentés par des torses flottants) pourrait être ce dont la plupart des gens se souviennent de ce projet mal conçu – si tant est qu’ils y pensent.
Mais alors que le métavers n’a pas vu le jour, la frénésie autour de l’intelligence artificielle a pris de l’ampleur : 2023 a été le théâtre de spéculations sur les promesses d’outils tels que le ChatGPT basé sur le texte d’OpenAI et les modèles d’image génératifs comme Midjourney et Stable Diffusion, sans parler des personnes abusant de cette même technologie pour diffuser de fausses informations. Meta lui-même a commencé à s’éloigner des démonstrations croustillantes de Zuckerberg prenant des selfies de touriste en RV devant une Tour Eiffel en basse résolution, et des annonces croustillantes de partenariats pour obtenir les voix de Kendall Jenner, MrBeast, Snoop Dogg et Paris Hilton pour le nouvel ensemble d' »assistants » d’IA de la société.
Jeudi, Zuckerberg a fait monter d’un cran l’enthousiasme pour le jeu d’IA de Meta avec une mise à jour vidéo partagée à la fois sur Instagram et sur Threads. L’air un peu privé de sommeil, le PDG a déclaré qu’il « rapprochait les deux efforts de recherche en IA de Meta pour soutenir nos objectifs à long terme de construire une intelligence générale, de l’ouvrir de manière responsable et de la rendre disponible et utile pour tout le monde dans toutes nos vies quotidiennes. » La réorganisation implique de combiner la division Fundamental AI Research (FAIR) de l’entreprise avec son équipe de produits GenAI afin d’accélérer l’accès des utilisateurs aux fonctionnalités de l’IA – ce qui, comme l’a souligné Zuckerberg, nécessite également un investissement massif dans les unités de traitement graphique (GPU), les puces qui fournissent la puissance de calcul pour les modèles d’IA complexes. Il a également indiqué que Meta entraînait actuellement Llama 3, la dernière version de son modèle génératif de grand langage. (Dans une interview accordée à The Verge, il a reconnu qu’il courtisait agressivement les chercheurs et les ingénieurs pour qu’ils travaillent sur tout cela).
Mais que signifie réellement cette dernière avancée dans la mission de Meta pour rattraper son retard en matière d’IA ? Les experts sont sceptiques quant à la notion utopique de Zuckerberg de contribuer au bien commun en mettant à disposition son « intelligence artificielle générale » promise (c’est-à-dire en rendant le code du modèle accessible au public pour modification et redistribution) et se demandent en fait si Meta parviendra à une telle percée. Pour l’instant, une IAG reste un système autonome purement théorique capable de s’enseigner lui-même et de surpasser l’intelligence humaine.
Honnêtement, la notion d' »intelligence générale » est tout aussi vaporeuse que celle de « métavers », explique à Rolling Stone David Thiel, architecte de big data et technologue en chef de l’Observatoire de l’Internet de Stanford. Il estime que la promesse d’ouverture est quelque peu fallacieuse, car « elle leur donne l’argument qu’ils sont aussi transparents que possible à propos de la technologie ». Mais, note Thiel, « tous les modèles qu’ils publieront ne seront qu’un petit sous-ensemble de ce qu’ils utilisent réellement en interne ».
Sarah Myers West, directrice générale de l’AI Now Institute, un organisme de recherche à but non lucratif, estime que l’annonce de Mark Zuckerberg « ressemble clairement à une tactique de relations publiques destinée à s’attirer les bonnes grâces, tout en obscurcissant ce qui est probablement un sprint violant la vie privée pour rester compétitif dans le jeu de l’IA ». Elle aussi trouve que le discours sur les objectifs et l’éthique de Meta n’est pas très convaincant. « Leur jeu n’est pas axé sur les avantages, mais sur le profit », dit-elle. Meta a vraiment repoussé les limites de ce que signifie « open source » dans le contexte de l’IA, au point que ces mots n’ont plus aucun sens (on pourrait dire qu’il en va de même pour la conversation sur l’AGI). Jusqu’à présent, les modèles d’IA publiés par Meta ne fournissent que peu d’informations ou de transparence sur les aspects clés de la construction de ses systèmes, en dépit de cet important effort de marketing et de lobbying ».
Je pense que beaucoup de choses dépendent de ce que Meta, ou Mark, décide que le terme « responsable » dans « open-source responsable » signifie », déclare Nate Sharadin, professeur à l’université de Hong Kong et membre du Center for AI Safety (Centre pour la sécurité de l’IA). Un modèle de langage comme Llama (qui a été présenté comme un modèle à code source ouvert, mais qui est critiqué par certains chercheurs comme étant très restrictif) peut être utilisé de manière nuisible, explique M. Sharadin, mais les risques sont atténués parce que le modèle lui-même n’a pas de « raisonnement, de planification, de mémoire » et d’autres attributs cognitifs connexes. Toutefois, ces capacités sont considérées comme nécessaires pour la prochaine génération de modèles d’IA, « et sont certainement ce que l’on attend d’une intelligence « entièrement générale » », ajoute-t-il. « Je ne vois pas très bien sur quelles bases Meta pense qu’un modèle intelligent totalement général peut être mis en libre accès de manière responsable.
Quant à savoir à quoi ressemblerait cette AGI hypothétique, Vincent Conitzer, directeur du laboratoire Foundations of Cooperative AI à l’université Carnegie Mellon et responsable de l’engagement technique en matière d’IA à l’Institute for Ethics in AI de l’université d’Oxford, suppose que Meta pourrait commencer avec quelque chose comme Llama et s’étendre à partir de là. « J’imagine qu’ils se concentreront sur les grands modèles de langage et qu’ils iront probablement plus loin dans la direction multimodale, c’est-à-dire qu’ils rendront ces systèmes capables de traiter les images, l’audio et la vidéo », dit-il, comme Gemini de Google, sorti en décembre. (M. Conitzer ajoute que si l’ouverture de ces technologies présente des dangers, l’alternative consistant à développer ces modèles « derrière les portes closes d’entreprises motivées par le profit » soulève également des problèmes.
« En tant que société, nous ne savons pas exactement ce qui devrait nous préoccuper le plus – bien qu’il semble y avoir de nombreuses raisons de s’inquiéter – et où nous voulons que ces développements aillent, sans parler des outils réglementaires et autres nécessaires pour les orienter dans cette direction », déclare-t-il. « Nous devons vraiment agir dans ce domaine, car pendant ce temps, la technologie avance à toute allure, tout comme son déploiement dans le monde.
L’autre question, bien sûr, est celle de la protection de la vie privée, domaine dans lequel Meta a des antécédents douteux. « Ils ont accès à d’énormes quantités d’informations très sensibles sur nous, mais nous ne savons pas s’ils les utilisent, ni comment, alors qu’ils investissent dans la construction de modèles tels que Llama 2 et 3 », déclare M. West. « Meta a prouvé à maintes reprises qu’on ne pouvait pas lui faire confiance avec les données des utilisateurs, avant même d’aborder les problèmes endémiques de fuite de données dans les LLM. Je ne vois pas pourquoi nous regarderions ailleurs lorsqu’ils ajoutent ‘open source’ et ‘AGI’ dans le mélange ». Sharadin affirme que la politique de confidentialité de l’entreprise, y compris les conditions de développement de l’IA, « leur permet de collecter un large éventail de données sur les utilisateurs dans le but de « fournir et d’améliorer nos produits Meta ». Même si vous refusez que Meta utilise vos informations Facebook de cette manière (en soumettant un formulaire peu connu et rarement utilisé), « il n’y a aucun moyen de vérifier la suppression des données du corpus d’entraînement », ajoute-t-il.
M. Conitzer observe que nous sommes confrontés à un avenir où les systèmes d’IA tels que Meta disposent de « modèles de plus en plus détaillés des individus », ce qui pourrait nous obliger à repenser complètement notre approche de la vie privée en ligne. « Dans le passé, j’ai peut-être partagé certaines choses publiquement et j’ai pensé que chacune de ces choses, prise individuellement, n’était pas nuisible », explique-t-il. « Mais je n’avais pas réalisé que l’IA pouvait établir des liens entre les différentes choses que je publiais et celles que d’autres publiaient, et qu’elle apprendrait quelque chose sur moi que je ne voulais vraiment pas voir divulgué. »
En résumé, l’enthousiasme de Mark Zuckerberg pour la dernière stratégie de Meta dans les guerres de l’IA de plus en plus féroces – qui a totalement supplanté ses rhapsodiques sur les gloires d’un métavers – semble présager une surveillance encore plus invasive. Et il est loin d’être évident de savoir quel type de produit AGI Meta pourrait en tirer, s’il parvient à créer cette mythique « intelligence générale ». Comme l’a prouvé la saga des métavers, les changements majeurs opérés par les géants de la technologie ne sont pas toujours synonymes d’innovation réelle ou significative.
Si la bulle de l’IA éclate elle aussi, Zuckerberg ne manquera pas de se lancer à la poursuite de la tendance la plus en vogue.