Le déploiement rapide de l’intelligence artificielle (IA) dépasse les cadres législatifs et éthiques actuels, et les responsables politiques du monde entier ont du mal à suivre. En conséquence, les grandes entreprises technologiques sont accusées de « faire leurs propres devoirs en matière d’IA », car elles peuvent effectivement faire des progrès rapides dans l’application et l’utilisation de l’IA sans trop de contraintes.
Les États-Unis ont réagi en incitant les géants de la technologie – notamment Amazon, Google et Microsoft – à signer un accord volontaire « historique » permettant à des experts indépendants en sécurité de tester leurs derniers algorithmes et modèles. Au Royaume-Uni, le Premier ministre a annoncé son intention de créer le premier institut de sécurité de l’IA au monde, qui évaluera les risques de sécurité nationale associés à la technologie. À la fin de l’année dernière, les États-Unis, le Royaume-Uni et plus d’une douzaine d’autres pays ont dévoilé un accord international sur la manière de protéger l’intelligence artificielle contre les acteurs malhonnêtes, incitant les entreprises à créer des systèmes d’IA « sécurisés dès la conception ».
L’année 2023 a également vu les gouvernements du monde entier se précipiter pour s’établir à l’avant-garde de la réglementation de l’IA. Le Royaume-Uni a accueilli le premier sommet mondial sur la sécurité de l’IA, auquel ont été conviés des chercheurs internationaux, des gouvernements et des ONG. Les éléments les plus préoccupants de la technologie ont été longuement discutés, le Premier ministre déclarant que « l’IA pourrait représenter un risque pour l’humanité de l’ampleur d’une guerre nucléaire ».
Pour certains, cependant, l’adoption rapide de l’IA présente des risques plus clairs et plus actuels, notamment l’impact sur l’emploi et le déploiement à grande échelle de la prise de décision algorithmique dans des domaines tels que le système judiciaire, l’État-providence et les services financiers. Avec beaucoup d’autres, l’Open Data Institute (ODI) a cosigné une lettre ouverte au Premier ministre sur cette question.
Les approches du Royaume-Uni et de l’UE en matière de réglementation de l’IA ont également divergé au cours de l’année 2023, la loi de l’UE sur l’IA étant plus prescriptive et statique que l’approche fondée sur des principes proposée par le Royaume-Uni. L’approche britannique est susceptible de favoriser l’innovation et d’encourager les entrepreneurs de l’IA à s’installer au Royaume-Uni. Toutefois, il existe un risque que des éléments passent entre les mailles du filet des différents régulateurs, chacun d’entre eux pensant que l’autre est responsable de l’application des réglementations.
Le Premier ministre a expliqué les difficultés rencontrées en déclarant que les législateurs s’efforcent de « rédiger des lois qui ont un sens pour quelque chose que nous ne comprenons pas encore totalement ».
À bien des égards, nous sommes en terrain inconnu, mais il est clair que la technologie évolue rapidement. Notre compréhension de celle-ci, de ses avantages et de ses risques, doit être comprise – au moins dans une certaine mesure – par chacun d’entre nous. La nécessité d’une culture numérique et d’une culture des données n’a jamais été aussi importante. Les décideurs politiques et les régulateurs doivent être correctement équipés pour le travail qu’ils ont à faire.
L’IA et les modèles qui la sous-tendent sont immensément complexes, et nous devons nous assurer que ceux qui sont en position de légiférer sur l’IA les comprennent. La pénurie de compétences numériques et de données au Royaume-Uni a été soulignée par Open Access Government comme devenant un problème urgent, et la fonction publique a été signalée comme ayant un déficit de compétences particulièrement important, selon le cabinet de conseil Global Resourcing.
Maîtrise des données
À l’ODI, nous avons été heureux de voir les médias et d’autres organisations de la société civile se concentrer sur la nécessité d’accroître les niveaux de maîtrise des données et d’autres compétences essentielles sur le lieu de travail. Or, un rapport de l’Alan Turing Institute indique que seuls 27 % des chefs d’entreprise britanniques pensent que leur personnel non technique possède actuellement les connaissances technologiques nécessaires pour tirer parti des nouvelles technologies.
Comme toute technologie, l’IA doit également être correctement examinée par des personnes qui la comprennent. La réglementation britannique en vigueur dans différents secteurs nous protège déjà de certains effets néfastes, par exemple lorsque les décisions fondées sur l’IA sont discriminatoires ou nuisent à la santé d’une personne, mais l’approche réglementaire du Royaume-Uni devra évoluer en permanence pour rester « adaptée à l’objectif ». Le scandale Post Office Horizon a démontré les conséquences graves et tragiques qui peuvent parfois se produire lorsque la technologie ne fonctionne pas correctement ou est mal comprise par ceux qui la commandent ou la mettent en œuvre.
En ce qui concerne l’IA, l’inquiétude du public ne faiblit pas, notamment en ce qui concerne l’impact potentiel sur l’emploi. Les industries créatives se sentent particulièrement vulnérables, les créateurs s’inquiétant des œuvres dérivées, de l’utilisation de créations humaines comme matériel source sans compensation pour les auteurs, et de la possibilité que l’IA remplace les mannequins et les acteurs à la télévision et dans les films. Ces craintes ont contribué à alimenter une grève de 146 jours de la Writers Guild of America et une action en justice de Getty Images contre Stability AI. Démontrant la tension entre les différentes attitudes concernant l’utilisation de l’IA au sein des secteurs, cette industrie avait déjà adopté l’IA générative pour produire des images exceptionnelles. L’IA générative a même été utilisée pour produire des œuvres d’art primées, en partie pour stimuler le débat sur son utilisation dans le domaine créatif.
À mesure que l’utilisation de l’IA générative s’est développée, de nouveaux outils sont apparus, conçus spécifiquement pour protéger les intérêts des auteurs. Ces outils, tels que Nightshade, « empoisonnent » les données liées au travail humain et embrouillent les modèles artistiques de l’IA, ce qui réduit leur capacité à générer des images significatives basées sur le travail non licencié d’artistes humains.
Réflexions sur l’année à venir
En cette année d’élections générales, l’équipe politique de l’ODI élabore des recommandations que nous aimerions voir adoptées par le prochain gouvernement.
Nous pensons que l’obsession des nouvelles technologies a éclipsé le rôle des données en tant que matière première de la plupart des développements récents. Nous suggérons fortement qu’un engagement à construire et à maintenir une infrastructure de données doit être au cœur de l’agenda numérique et de données du Royaume-Uni. Nous demandons instamment à chaque partie de renforcer cette infrastructure nationale de données essentielle, d’accroître la maîtrise des données et de veiller à ce que toutes les décisions politiques concernant les données tiennent compte de la transparence, de la sécurité et de l’équité.
Il sera tout aussi important de s’engager à maintenir les décideurs humains dans la boucle lorsque l’IA est utilisée pour faire des choix. Si un algorithme a décidé – ne serait-ce qu’en partie – de l’issue d’une décision qui concerne un être humain, il doit toujours y avoir un être humain ayant l’expertise et la capacité d’entendre un recours contre cette décision.
La dernière vague de modèles d’IA a bouleversé notre façon de concevoir certains éléments de notre infrastructure de données. Elle a déclenché des discussions et des débats sur les données que nous choisissons de partager, sur la valeur des données que nous publions ouvertement et sur les droits que nous avons sur elles. Elle a également mis en évidence l’importance de prendre en compte la qualité, la gouvernance et les biais des ensembles de données.
Les travaux de l’ODI sur l’IA centrée sur les données s’appuient sur notre conviction que l’IA doit évoluer pour garantir que les ingénieurs en IA examinent soigneusement les données qui alimentent leurs modèles et que les utilisateurs de ces modèles tiennent compte de la qualité et des biais de leurs données. Notre travail reconnaît que la production de données de haute qualité pour l’IA et l’utilisation responsable et équitable de ces données sont essentielles pour garantir que tout le monde bénéficie des récentes innovations technologiques et que nous puissions exploiter le potentiel – et atténuer les risques – d’un monde basé sur l’IA.