Dans un paysage en constante évolution, les organisations de toutes sortes – publiques, privées, commerciales et à but non lucratif – se lancent dans un voyage passionnant dans le monde de l’intelligence artificielle générative (IA). Alors que certaines entreprises avaient déjà développé des systèmes d’IA traditionnels (pré-génératifs), s’appuyant principalement sur des prédictions d’apprentissage automatique alimentées par des données structurées, beaucoup naviguent désormais dans un territoire d’IA inexploré et les possibilités sont infinies.
Nous avons déjà été fascinés par les technologies émergentes, de la révolution de la blockchain et l’attrait du métaverse à l’engouement des NFT, mais l’IA générative est un nouveau pinacle de l’innovation technologique. Le large éventail d’applications est à couper le souffle, allant de l’automatisation des processus commerciaux à la libération de l’IA pour des bénéfices sociétaux profonds.
Cependant, au milieu de cette grande promesse se cache un grand danger. On a beaucoup écrit sur les risques de l’IA, de la possibilité de résultats discriminatoires aux menaces plus existentielles pour l’humanité. La question qui se pose est la suivante : qui assumera la responsabilité cruciale de protéger l’humanité à l’ère de l’IA ?
L’incapacité d’agir
Alors que plusieurs ONG et organisations de la société civile analysent diligemment les risques de l’IA, le vaste potentiel économique et commercial rend difficile pour les organisations à but non lucratif de freiner le développement de l’IA. Les décideurs politiques prennent également des mesures pour faire face à ce raz-de-marée de l’IA, comme en témoigne l’adoption récente de la loi européenne sur l’IA par le Parlement européen.
Cependant, la réglementation mondiale de l’IA est aujourd’hui immature et la perspective d’une réglementation mondiale stricte de l’IA reste incertaine.
Parfois, les dirigeants gouvernementaux choisissent de ne pas réglementer les technologies innovantes. En 1997, l’administration Bill Clinton a publié un rapport fondateur, intitulé « A Framework for Global Electronic Commerce », plaidant pour l’autorégulation de l’industrie sans restrictions excessives sur le commerce électronique. Un an plus tard, le président Clinton a signé l’Internet Tax Freedom Act, promouvant l’innovation en permettant à Internet de s’épanouir avec une fiscalité limitée.
De même, le gouvernement chinois a décidé stratégiquement de ne pas réglementer fortement l’innovation FinTech et la montée en puissance des super-applications pendant une période significative du développement technologique.
Si les ONG et les gouvernements n’assument pas le rôle de chiens de garde de l’IA, alors nous devons nous tourner vers les entreprises et leurs dirigeants de conseils d’administration pour saisir le moment et assumer le rôle de gardiens de l’IA.
Les conseils d’administration face à leurs responsabilités
Les conseils d’administration jouent un rôle crucial en matière de gouvernance, supervisant un large éventail de risques organisationnels, y compris le paysage complexe des risques liés à l’IA. La décision historique Caremark de 1996 de la Cour de chancellerie du Delaware a établi une norme juridique fondamentale (quoique minimale) pour la surveillance des conseils d’administration. Mais pouvons-nous compter sur le système juridique pour assurer une gouvernance solide des programmes d’IA d’entreprise ?
Les conseils d’administration disposent d’une grande latitude pour exercer leurs responsabilités de gouvernance. Ils doivent établir un système de surveillance, le contrôler et agir sur tout signal d’alerte.
Établir des limites de tolérance éthique
Compte tenu des défis éthiques distincts posés par l’IA, la responsabilité du conseil d’administration devrait transcender les exigences légales minimales et embrasser une profonde responsabilité éthique avec une gouvernance pionnière de l’IA. Les conseils d’administration peuvent adopter des pratiques d’IA éthiques qui protègent les intérêts des parties prenantes et l’humanité en général, tout en respectant leur devoir fiduciaire envers leurs actionnaires. Non seulement un comportement éthique peut améliorer la réputation et la fiabilité d’une entreprise, mais il pose également les bases d’un succès durable. Je suis encouragé de voir que de nombreux conseils d’administration vont encore plus loin et promeuvent certaines actions d’IA éthiques qui profitent à la société sans preuve directe d’un lien positif avec leur activité.
Le conseil d’administration doit établir les limites de la tolérance éthique au sein de l’entreprise, en fixant les limites de ce qui est moralement acceptable
dans toutes les initiatives d’IA de l’entreprise. L’éthique doit servir de lumière directrice éclairant chaque facette de la stratégie d’IA d’une entreprise. Voici cinq actions que les conseils d’administration devraient envisager pour promouvoir une gouvernance éthique de l’IA :
-
Renforcer l’expertise technologique du conseil d’administration : Attribuez un siège vacant au conseil d’administration à un technologue ou à un expert en IA. Familiarisez-vous directement avec l’IA en vous engageant directement avec cette technologie transformationnelle ; expérimentez des outils d’IA générative pour améliorer votre travail au sein du conseil. Invitez des experts en IA à fournir de nouvelles perspectives.
-
Aller au-delà de la conformité légale : Rappelez-vous que Caremark ne représente que les normes minimales de surveillance. Allez plus loin et élevez la gouvernance de l’IA au-delà de la simple conformité légale, qu’il s’agisse d’un élément critique de la responsabilité sociale des entreprises, d’une expression des principes ESG ou d’une autre manifestation d’un devoir envers la société. Les applications d’IA de votre entreprise doivent non seulement se conformer au droit positif, mais aussi respecter les droits humains fondamentaux, en reconnaissant notre devoir envers le droit naturel.
-
Former un comité d’éthique : Créez un comité d’éthique composé d’experts en éthique, en anthropologie, en technologie, en données, en droit et en droits humains. Tirez parti de ce conseil pluridisciplinaire pour évaluer rigoureusement les applications d’IA de l’entreprise, en offrant une nouvelle perspective sur les considérations éthiques. La diversité est essentielle pour une analyse éthique appropriée de l’IA.
-
Établir un comité technologique du conseil d’administration ou un conseil consultatif : Une étude d’EY révèle que 13 % des entreprises du S&P 500 ont institué une forme de comité technologique au niveau du conseil d’administration. Ces comités se sont avérés précieux pour gérer efficacement les risques technologiques et orienter le programme d’innovation et de croissance alimenté par la technologie.
-
Favoriser la collaboration au sein de l’écosystème de l’IA : Les conseils d’administration doivent s’assurer que l’entreprise collabore efficacement au sein de l’écosystème de l’IA. Engagez-vous avec les acteurs du secteur, les décideurs politiques et les éthiciens pour établir collectivement des normes d’IA éthiques qui reflètent les valeurs de la société.
Les conseils d’administration des entreprises sont à l’avant-garde de la gouvernance éthique de l’IA. Ils occupent une position unique pour protéger l’humanité en s’assurant que l’IA est conçue, développée et déployée de manière éthique et responsable. Les conseils d’administration détiennent la boussole qui peut nous guider vers un avenir où l’IA est exploitée non seulement pour son vaste potentiel, mais aussi pour son intégrité. Ils ont la lourde responsabilité de veiller à ce que l’IA ne serve pas seulement à des fins économiques, mais qu’elle soit appliquée de manière éthique, responsable et avec un dévouement sans faille à nos valeurs communes.
Alors que nous naviguons dans les eaux complexes de la révolution de l’IA, ne nous contentons pas de remplir nos obligations légales, mais transcendons-les. Intégrons l’éthique dans chaque ligne de code logiciel, chaque décision et chaque action. Cultivons un héritage d’innovation responsable qui serve de phare pour les générations à venir et sauvegarde la dignité et les droits de tous. Embarquéons-nous ensemble dans ce noble voyage, car l’avenir de l’IA, et de l’humanité, dépend des choix que nous faisons aujourd’hui.