Gouvernance de l’IA : un défi à relever pour intégrer durablement les LLM à votre écosystème

MFG Labs
6 min readNov 14, 2023
Photo par Google DeepMind

L’intelligence artificielle (IA) a rapidement évolué pour devenir une composante majeure de la stratégie numérique des entreprises aujourd’hui. Et le lever de rideau récent sur les Large Language Models (LLM) et leur capacité à comprendre et générer le langage humain de manière de plus en plus sophistiquée interroge sur la stratégie à adopter afin d’intégrer ces outils de manière pérenne au sein des écosystèmes numériques des entreprises.

Car si les LLM promettent des avantages considérables en matière d’efficacité opérationnelle, d’innovation, ou encore d’optimisation de l’expérience client, ils soulèvent également des risques, qu’ils soient inhérents à leurs modes de fonctionnement ou dus à l’usage qu’il en est fait.

Dans un contexte d’entreprise, la gouvernance des LLM (et plus généralement la gouvernance de l’IA) prend une importance capitale.

Pourquoi mettre en place une gouvernance de l’IA ?

La gouvernance de l’IA est un ensemble de règles et de pratiques mises en place par une organisation pour garantir le fonctionnement optimal de ses opérations et services reposant sur l’IA. À cela s’ajoute la garantie d’une utilisation sécurisée, responsable, éthique, et transparente de ces technologies.

Ces problématiques soulèvent des questions à assez fort impact :

  • Gestion des risques juridiques : respect de la réglementation nationale et transnationale en matière de protection des données personnelles, d’utilisation de données libres de droit. Par exemple, utiliser Midjourney aujourd’hui pose un risque juridique à terme car toutes les sources de données sur lesquelles repose le modèle ne sont pas libres de droit. Se posent d’autres questions autour de la notion de responsabilité par exemple ;
  • Gestion des risques éthiques : des risques inhérents au fonctionnement des algorithmes existent — et ce n’est pas propre aux LLM. La question des biais algorithmiques par exemple représente un risque éthique à ne pas négliger ;
  • Gestion des risques réputationnels et financiers : des dommages réputationnels ou financiers pourraient directement être causés après avoir manqué à mitiger les types de risques précédents. On peut citer l’exemple de Samsung.

L’arrivée en masse des LLM et leur facilité d’accès nous forcent à trouver des réponses à des questions qui ne concernaient pas le grand public jusqu’à aujourd’hui. Les problématiques d’éthique des algorithmes et des biais algorithmiques ne sont pas nouvelles. Des zones grises émergent également en ce qu’il s’agit de la réglementation — raison pour laquelle de nombreux concepteurs demandent que l’IA soit régulée.

Quel est le périmètre d’une gouvernance de l’IA ?

Dans un tel contexte, il est difficile pour les entreprises d’établir une liste exhaustive de ce que doit intégrer le dispositif de gouvernance. Encore plus lorsque l’on considère que la gouvernance doit être adaptée à chaque organisation, mais également au périmètre et à la nature des usages de l’IA au sein de l’entreprise. Mais de manière générale, vous devrez adresser les questions suivantes :

  • Définition des normes et règles d’application des projets IA : définition d’un cadre général portant sur les normes et règles transverses à tous les projets se reposant sur les LLM et l’IA au sein de l’entreprise. La définition d’un tel cadre vous permettra d’expliciter l’objectif du projet, et d’assurer le respect des valeurs morales et éthiques portées par l’entreprise, ainsi que d’assurer du respect de la réglementation en amont du lancement ;
  • Définition des rôles et responsabilités : les rôles nécessaires au bon fonctionnement de cette gouvernance existent-ils ? Devez-vous les créer ? Les rôles et responsabilités sont-ils définis, partagés et transmis au sein de l’intégralité des responsables et utilisateurs d’outils reposant sur les LLM et l’IA ? De plus, ces outils doivent être rattachés à un humain. Qui en a la responsabilité et comment se décompose-t-elle ?
  • Dispositif de traçabilité : construction d’un référentiel transverse à l’entreprise afin d’identifier l’intégralité des usages qui sont faits de l’IA et des LLM, ainsi que leur nature.
  • Respect du principe d’explicabilité : il est nécessaire pour l’entreprise d’être en mesure d’expliquer les résultats de ses modèles, et des solutions technologiques et mathématiques existent à cet effet. Cela n’est pas toujours critique (ex : achat automatisé d’un espace de pub vs. diagonistic de santé réalisé par une IA), mais cela est bien toujours éthique (pas d’effet boîte noire).

À cela viennent bien évidemment s’ajouter les processus nécessaires au bon fonctionnement de cette gouvernance. D’autres questions peuvent bien évidemment être adressées. La composante environnementale n’est pas à négliger lorsqu’il s’agit d’avoir recours en masse à des modèles génératifs par exemple. Cela est à traiter au cas par cas, en tenant compte des besoins et des valeurs portées par l’entreprise.

Quelle approche adopter pour implémenter une gouvernance de l’IA ?

La gouvernance de l’IA et des LLM est un sujet encore émergent pour la plupart des entreprises et traité par certaines entreprises déjà exposées aux risques juridiques. De nombreux acteurs tous secteurs confondus sont actuellement en train d’adresser les enjeux plus généraux de gouvernance de la donnée. Et le degré de maturité à ce sujet est très inégal.

Cependant, les deux sujets sont intrinsèquement liés, et les approches pour les implémenter relativement similaires.

  1. État des lieux : cartographier l’utilisation qui est faite de l’IA au sein de l’entreprise. Quelles solutions sont déjà utilisées et quelle est la nature des usages ? L’objectif ici est d’avoir une vision claire de l’écosystème et des risques déjà existants au sein de l’organisation ;
  2. Priorisation des risques : lister et séparer de manière assez nette la nature des risques à contrôler (juridiques, éthiques, réputationnels…), avec l’objectif de considérer la fermeté avec laquelle traiter chacune des catégories de risque et l’impact de cette fermeté sur la gouvernance à mettre en place ;
  3. Définition de la gouvernance cible : définition de l’organisation, les rôles et responsabilités, les processus et le cadre cible à mettre en place afin de mitiger les risques de manière maximale ;
  4. Implémentation progressive : selon les priorités définies.

Les composantes de conduite du changement et d’acculturation prennent une place importante dans le processus de mise en place et d’adoption. À l’instar de la gouvernance de la donnée, et l’acculturation aux enjeux tels que le RGPD, comprendre les problématiques sous-jacentes à l’utilisation des LLM et de l’IA de manière plus générale est clé dans la mitigation des risques, la compréhension des rôles et responsabilités, ou encore dans la mise en œuvre des pratiques.

Maturité des technologies IA : un défi à accueillir avec stratégie

La gouvernance de l’IA et des LLM est essentielle pour assurer une utilisation responsable, éthique et pérenne de ces technologies en entreprise. L’identification et la minimisation des risques jouent un rôle clé dans la définition d’un cadre transverse permettant d’inscrire l’adoption de ces technologies dans la durée.

Cependant, il est important de garder à l’esprit que ces technologies — et tout particulièrement les LLM, sont encore peu matures. Ce critère doit bien évidemment être pris en compte. Il induit premièrement le besoin d’acculturation à tous les niveaux hiérarchiques de l’entreprise. Mais il implique également un besoin de veille (technologique, juridique…) afin d’anticiper et d’adapter les risques et les opportunités que les LLM peuvent offrir.

Au-delà de la gouvernance, le succès de l’adoption se construit également par l’exemple. Et les performances et la valeur apportée par l’IA et plus spécifiquement les LLM sont très dépendantes des spécificités de chaque projet. La définition de la stratégie d’implémentation et le choix des cas d’usages à traiter seront donc également des facteurs clés de succès. Adopter une méthode d’implémentation permettant de faire des choix pertinents et de sécuriser vos investissements en innovation est donc tout aussi important. Mais c’est un sujet pour un autre jour !

À propos de MFG Labs

MFG Labs est une société de conseil et réalisation experte en data, qui aide les entreprises à améliorer leurs prises de décision, à automatiser leurs processus et à créer de nouveaux services grâce à la data science, au design et à l’utilisation des dernières technologies.

Pour en savoir plus, rendez-vous sur notre site — mfglabs.fr

--

--