putilov_denis - stock.adobe.com

Qu’est-ce que la gouvernance de l’IA et pourquoi en avez-vous besoin ?

La gouvernance de l’IA est une nouvelle discipline, compte tenu de l’expansion récente de cette technologie. Elle diffère des pratiques de gouvernance informatique standard, dans la mesure où elle s’intéresse à l’utilisation responsable du machine learning et du deep learning.

La gouvernance de l’IA est un cadre global permettant d’administration de son utilisation et de son déploiement par une organisation à l’aide d’un vaste ensemble de processus, de méthodologies et d’outils.

L’objectif de la gouvernance de l’IA ne se limite pas à garantir une utilisation efficace du machine learning et du deep learning. En fait, le champ d’application est beaucoup plus large et englobe la gestion des risques, la conformité réglementaire et l’usage éthique de ces technologies.

Il est important de noter la distinction entre la gouvernance de l’IA et la réglementation de l’IA. Cette deuxième notion fait référence aux lois et aux règles établies en matière d’usage de l’intelligence artificielle par un gouvernement ou un organisme de réglementation et s’appliquant à toutes les organisations qui relèvent de leur compétence. La gouvernance de l’IA fait plutôt référence à la manière de l’administrer dans un contexte organisationnel.

Avantages et inconvénients de l’apprentissage profond

Les organisations ont déjà des pratiques de gouvernance IT matures. Alors, pourquoi ont-elles besoin de la gouvernance de l’IA ? Ces deux disciplines sont voisines et partagent des pratiques, mais il convient de les différencier parce que le niveau de maturité des entreprises demeure encore trop faible.

Dans le langage populaire, l’IA fait référence à l’apprentissage profond ; aux approches de machine learning qui reposent sur les réseaux de neurones. L’idée centrale du deep learning est que les règles de décision sont dérivées des données et non codées en dur par des humains, ce qui est la norme dans les systèmes informatiques traditionnels. Des améliorations spectaculaires de la précision et des performances proches de celles de l’homme sont observées, lorsque ces réseaux de neurones effectuent des tâches étroitement définies dans des domaines tels que le traitement des langues, la reconnaissance des images et la reconnaissance vocale.

Les systèmes de prise de décision automatisés qui utilisent ces capacités d’IA deviennent prépondérants. Les algorithmes poussent des suggestions d’achat, des flux d’informations, des demandes d’emploi, des décisions de crédit, des recommandations en matière de santé et bien d’autres choses encore. L’automatisation apportée promet de grands avantages d’un point de vue commercial, mais il y a aussi des inconvénients à prendre en compte. Contrairement aux règles codées en dur, le « pourquoi » d’une décision d’un modèle de deep learning n’est ni intuitif ni facile à comprendre. D’où l’expression « l’IA est une boîte noire ».

Il existe d’autres limites que le manque de transparence :

  • Les choses changent sans cesse dans le monde réel, et les modèles ou les relations qu’un système d’IA a appris peuvent ne plus être applicables.
  • Les données du monde réel sont souvent différentes de celles utilisées pour former les modèles d’IA.
  • Les modèles d’IA ne fonctionnent bien que pour certains types de publics, et non pour tous. C’est ce qu’on appelle le biais de l’IA ou le biais algorithmique.

Dans tous ces scénarios, les décisions automatisées sont probablement incorrectes, mais les organisations continuent de s’y fier sans corriger leurs algorithmes.

La nécessité d’une gouvernance de l’IA

L’adoption croissante de l’IA s’accompagne d’une reconnaissance accrue de ses atouts et de ses limites. Les gouvernements introduisent de nouvelles réglementations et directives pour prévenir les dommages causés par une mauvaise utilisation, intentionnelle ou non, de l’intelligence artificielle.

La nature unique de l’IA exige que des garde-fous soient mis en place pour garantir qu'elle fonctionne comme prévu. C’est le mandat clé de la gouvernance de l’IA.

Une utilisation incorrecte de cette technologie peut exposer une organisation à des risques opérationnels, financiers, réglementaires et de réputation. Il est également peu probable qu’elle s’aligne sur les valeurs fondamentales de votre organisation. La nature unique de l’IA exige que des garde-fous soient mis en place pour garantir qu'elle fonctionne comme prévu. C’est le mandat clé de la gouvernance de l’IA.

Après quelques années d’expérience dans la mise en œuvre et la mise à l’échelle de l’apprentissage profond dans l’entreprise, des manuels et des meilleures pratiques de gouvernance de l’IA commencent à émerger. Voici quelques exemples marquants :

  • L’entreprise pharmaceutique Novartis, qui a engagé une équipe multidisciplinaire d’experts pour examiner leur utilisation des systèmes d’IA tout au long de la chaîne de valeur pharmaceutique, et pour rédiger leur position sur l’utilisation de l’IA de manière responsable et éthique, d’une manière alignée sur le code d’éthique global de l’entreprise ;
  • L’IEEE, la plus grande organisation professionnelle technique au monde pour l’avancement de la technologie, qui a créé les normes d’affaires Ethically Aligned Design, couvrant toute la gamme, de la nécessité de l’éthique de l’IA dans les affaires aux compétences et au personnel requis ;
  • L’Institut d’éthique de l’IA de Montréal, une organisation à but non lucratif, qui produit régulièrement des « rapports sur l’état de l’éthique de l’IA » et contribue à démocratiser l’accès aux connaissances en matière d’éthique de l’IA ; et
  • Le gouvernement de Singapour, qui a été un pionnier et a publié le modèle de cadre de gouvernance de l’IA, afin de fournir des conseils pratiques au secteur privé sur la façon de traiter les questions d’éthique et de gouvernance dans les déploiements de l’IA.

La gouvernance de l’IA n’est pas l’affaire des seuls ingénieurs logiciels ou experts en machine learning. Elle est multidisciplinaire et implique des parties prenantes techniques et non techniques.

Cette discipline concerne les utilisateurs finaux des secteurs public et privé, ainsi que les éditeurs de logiciels d’IA. Quelques organisations progressistes font même de la gouvernance de l’IA une partie intégrante de leur gouvernance d’entreprise et de leurs stratégies RSE, car elle implique la manière dont une organisation devrait mettre en œuvre les principes d’éthique de l’IA et garantir une utilisation responsable de l’IA.

À propos de l’auteur :

Kashyap Kompella est expert en IA et fondateur de RPA2AI Research. RPA2AI est un cabinet d'analyse qui conseille les entreprises, les fonds d'investissement et les agences gouvernementales en matière d'adoption de l'IA.

Pour approfondir sur Intelligence Artificielle et Data Science

Close