L’intelligence artificielle – ou plutôt la variété basée sur les grands modèles de langage qui nous captivent actuellement – est déjà à l’automne de son cycle d’engouement, mais contrairement à la crypto-monnaie, elle ne disparaîtra pas simplement dans les coins sombres et indignes de l’internet une fois que son statut de « tendance » s’estompera. Au contraire, il s’installe dans un endroit où son utilisation est déjà courante, même à des fins pour lesquelles il est franchement mal adapté. Le doomérisme voudrait vous faire croire que l’IA deviendra tellement intelligente qu’elle réduira l’humanité en esclavage ou la fera disparaître, mais la réalité est qu’elle est bien plus menaçante en tant que couche omniprésente d’erreurs et d’hallucinations qui s’infiltrent dans nos eaux souterraines intellectuelles partagées.
Le débat entre le doomérisme et l’e/acc continue, avec tous les arguments fondés et factuels que l’on peut attendre de la part des élites de la Silicon Valley, qui ont la réputation d’être très terre à terre. Le contexte clé pour ces personnalités influentes est de se rappeler qu’elles passent toute leur carrière à louer/décrier le succès ou l’échec extrême de n’importe quelle technologie sur laquelle elles parient ou contre laquelle elles parient – pour finalement voir cette technologie s’effondrer bien avant d’atteindre l’état parfait ou l’état catastrophique. Les témoins de tout, toujours et à jamais, mais si vous cherchez des exemples précis, la conduite autonome est un exemple récent très pratique, tout comme la RV et les métavers.
Les débats utopiques ou dystopiques dans le domaine de la technologie font toujours ce qu’ils sont censés faire, c’est-à-dire nous empêcher d’avoir de véritables conversations sur l’impact réel et actuel de la technologie telle qu’elle est réellement déployée et utilisée. L’IA a sans aucun doute eu un impact massif, en particulier depuis l’introduction de ChatGPT il y a un peu plus d’un an, mais cet impact ne concerne pas la question de savoir si nous avons involontairement semé les graines d’une divinité virtuelle, il concerne la façon dont ChatGPT s’est avéré beaucoup plus populaire, plus viral et plus collant que ses créateurs ne l’auraient jamais cru possible – alors même que ses capacités correspondaient en fait à leurs attentes relativement modestes.
D’après les études les plus récentes, l’utilisation de l’IA générative est assez répandue et en augmentation, en particulier chez les jeunes utilisateurs. Selon une étude récente de Salesforce sur l’utilisation au cours de l’année écoulée, les principales utilisations ne relèvent pas de la nouveauté ou de l’amusement ; elles servent plutôt à automatiser les tâches et les communications liées au travail. À quelques rares exceptions près, comme lorsqu’elle est utilisée pour préparer des arguments juridiques, les conséquences d’une légère hallucination de l’IA dans la génération de ces communications et de la corvée de l’entreprise sont insignifiantes, mais il en résulte sans aucun doute une strate numérique composée d’erreurs factuelles faciles à oublier et d’inexactitudes mineures.
Cela ne veut pas dire que les gens sont particulièrement doués pour diffuser des informations exemptes d’erreurs factuelles ; c’est plutôt le contraire, en fait, comme nous l’avons vu via la montée de l’économie de la désinformation sur les réseaux sociaux, en particulier dans les années qui ont précédé et inclus la présidence de Trump. Même en faisant abstraction des intentions malveillantes et des actes intentionnels, l’erreur fait partie intégrante des croyances et de la communication humaines et, en tant que telle, elle a toujours imprégné les réservoirs de connaissances partagées.
La différence est que les modèles d’IA basés sur le LLM le font avec désinvolture, constamment et sans réflexion personnelle, et qu’ils le font avec un vernis de confiance autoritaire auquel les utilisateurs sont sensibles en raison de nombreuses années de résultats de recherche Google relativement stables, factuels et fiables (il faut admettre que le mot « relativement » fait beaucoup de travail ici). Au début, les résultats de recherche et les sources d’information en ligne provenant de la foule étaient traités avec une bonne dose de scepticisme critique, mais des années, voire des décennies, d’informations relativement fiables fournies par la recherche Google, Wikipedia et autres ont court-circuité notre méfiance à l’égard des choses qui nous reviennent lorsque nous tapons une requête dans une zone de texte sur l’internet.
Je pense que les résultats de la production par ChatGPT et ses semblables d’un volume massif de contenu d’une précision douteuse pour la communication quotidienne seront subtils, mais ils valent la peine d’être étudiés et potentiellement atténués. La première étape consisterait à examiner pourquoi les gens pensent qu’ils peuvent confier autant de choses à l’IA dans son état actuel pour commencer ; avec toute automatisation généralisée des tâches, l’enquête devrait probablement se concentrer sur la tâche, et non sur l’automatisation. Quoi qu’il en soit, les changements réels et importants que l’IA apporte sont déjà là, et même s’ils ne ressemblent en rien à Skynet, ils méritent davantage d’être étudiés que les possibilités qui reposent sur la réalisation de rêves techno-optimistes.