Les entreprises qui développent et déploient des solutions d’IA ont besoin d’une gouvernance solide pour s’assurer qu’elles sont utilisées de manière responsable. Mais sur quoi doivent-elles se concentrer exactement ? Sur la base d’une récente table ronde de DataStax, » Enterprise Governance in a Responsible AI World « , il existe quelques éléments simples et complexes auxquels les entreprises doivent prêter attention lorsqu’elles conçoivent leur gouvernance afin de garantir une utilisation responsable de l’IA.
Les choses faciles : Une compréhension claire de la terminologie et des risques liés à l’IA
Il y a une foule de choses qui peuvent être établies assez facilement dès le début de l’aventure de l’IA d’une organisation. Le simple fait d’établir une terminologie partagée et un contexte de compréhension commun à l’ensemble de l’organisation constitue une étape fondamentale vers l’inclusion. Des développeurs à la direction, une organisation qui comprend les concepts et la terminologie de base de l’IA est mieux à même d’en discuter et d’innover grâce à l’IA.
Pour parvenir à cette compréhension commune, il peut être nécessaire d’organiser une formation à l’IA et/ou à la culture numérique. Au cours de cette formation, il est également important d’expliquer les limites de l’IA. Quelles sont les qualités de ce modèle et quelles devraient être les limites de son application ? La compréhension des limites permet d’éviter toute utilisation abusive à l’avenir.
Cette clarté dans la communication devrait également s’étendre à l’extérieur de l’entreprise. Les entreprises, en particulier les startups, doivent perfectionner leurs compétences pour expliquer leur technologie dans un langage simple, même avec de petites équipes. Cela permet non seulement d’écarter les idées reçues sur ce qui est possible et ce qui ne l’est pas, mais aussi de préparer les entreprises à discuter avec les groupes de parties prenantes, tels que les clients et même les futurs membres du conseil d’administration, et éventuellement à les éduquer.
Dans le cadre de ce processus, il est important de prendre en compte le contexte de chaque individu ou groupe impliqué. Les considérations éthiques diffèrent d’un secteur à l’autre, comme les soins de santé, la banque et l’éducation. Par exemple, il peut être utile pour les étudiants de partager leur travail afin d’obtenir des résultats d’apprentissage, mais il est illégal pour une banque de partager les transactions boursières d’un client avec d’autres groupes. Ce contexte est important non seulement pour rencontrer votre public là où il se trouve, mais aussi pour comprendre les risques spécifiques au contexte de votre application d’IA.
Les choses les plus difficiles : Sécurité et effets secondaires externes
À partir de là, les choses se compliquent. Les risques présents au moment du déploiement de l’IA peuvent ne pas être les mêmes un an plus tard. Il est important d’évaluer en permanence les nouvelles menaces potentielles et d’être prêt à mettre à jour les processus de gouvernance en conséquence. Outre le potentiel existant de nuisance de l’IA, l’IA générative introduit de nouveaux vecteurs de nuisance qui requièrent une attention particulière, tels que les attaques d’ingénierie rapide, l’empoisonnement de modèles, etc.
Une fois qu’une organisation a mis en place une surveillance et une gouvernance de routine des modèles déployés, il devient possible d’envisager des impacts éthiques élargis et indirects tels que les dommages environnementaux et la cohésion sociétale. Déjà avec l’IA générative, les besoins en calcul et la consommation d’énergie ont radicalement augmenté. Les risques non gérés à l’échelle de la société deviennent plus nombreux dans un monde d’IA générative.
Cette attention portée aux dommages potentiels peut également être une arme à double tranchant. Le fait de rendre les modèles open source augmente l’accès, mais les modèles ouverts peuvent être instrumentalisés par de mauvais acteurs. Le libre accès doit être mis en balance avec la probabilité d’un préjudice. Cela s’applique aux données d’apprentissage, aux résultats des modèles et à tout stock de caractéristiques ou moteur d’inférence entre les deux. Ces capacités peuvent améliorer les performances des modèles et leur permettre de s’adapter à un contexte changeant en temps réel, mais elles constituent également un autre vecteur d’attaque. Les entreprises doivent peser soigneusement ces compromis.
Les externalités plus larges doivent également être gérées de manière appropriée. Les effets secondaires sociaux et environnementaux sont souvent négligés, mais ces questions deviennent des problèmes commerciaux lorsque les chaînes d’approvisionnement vacillent ou que la confiance du public et des clients s’érode. La fragilité de ces systèmes ne doit pas être sous-estimée, en particulier à la lumière des récentes perturbations des chaînes d’approvisionnement causées par le COVID-19 et les catastrophes naturelles de plus en plus fréquentes.
Compte tenu de ces risques sociétaux, les gouvernements ont l’IA dans leur ligne de mire en matière de réglementation. Toute entreprise travaillant avec l’IA, qu’elle soit petite ou grande, doit se préparer aux réglementations imminentes en matière d’IA, même si elles semblent lointaines. La mise en place de pratiques de gouvernance et d’éthique prépare les entreprises à se conformer aux réglementations à venir.
Une gouvernance responsable de l’IA nécessite des cadres en constante évolution, adaptés aux nouvelles capacités et aux nouveaux risques. En suivant les pratiques simples – et parfois difficiles – décrites ci-dessus, les entreprises seront sur la bonne voie pour déterminer comment elles peuvent tirer profit de l’IA et comment celle-ci peut bénéficier à la société.