IA en entreprise : une adoption massive, mais une maîtrise des risques défaillante
Une étude de l’ESN Infosys constate un décalage entre la démocratisation de l’IA en entreprise et la mise en œuvre de garde-fous. Les risques sont bien identifiés et souvent sévères. Pourtant, à peine 2 % des organisations répondraient aujourd’hui aux standards d’une IA « de confiance » et « responsable ».
Sous l’impulsion de l’IA générative, l’intelligence artificielle sous toutes ses formes se généralise dans les entreprises, mais les capacités à l’encadrer correctement peineraient à suivre. Selon le rapportResponsible Enterprise AI in the Agentic Era, par le Knowledge Institute de Infosys, seulement 2 % des entreprises répondraient aux critères du modèle de maturité élaboré par l’ESN pour qualifier une IA dite « responsable ».
Menée auprès de plus de 1 500 dirigeants dans six pays (Australie, France, Allemagne, Royaume-Uni, États-Unis et Nouvelle-Zélande), l’enquête révèle que 95 % des décideurs auraient été confrontés à au moins un incident lié à l’IA au cours des deux dernières années.
Près de 40 % d’entre eux estiment que les conséquences ont été « graves » ou « extrêmement graves », que ce soit sur les plans financiers (77 % des organisations), de la réputation (53 % des atteintes à leur image) ou réglementaires.
Infosys recense des cas variés : atteintes à la vie privée, biais algorithmiques, discrimination, non-conformité réglementaire, ou encore prédictions erronées. Et les choses risquent de ne pas s’arranger avec l’arrivée des systèmes dits « agentiques » – des IA capables d’autonomie dans l’exécution de tâches, avertit l’ESN.
L’IA responsable toujours vue comme une obligation réglementaire
Mais il n’y a pas de fatalité, rappelle l’étude. Par exemple, les entreprises les plus avancées dans l’IA de confiance et responsable subiraient en moyenne 39 % de pertes financières en moins et 18 % de dommages réputationnels en moins, lors d’incidents.
« Les entreprises qui intègrent des garde-fous en matière d’IA responsable s'ouvriront de nouvelles sources de revenus et seront les mieux positionnées pour prospérer à l’ère de l’IA agentique. »
Jeff KavanaughHead of Infosys Knowledge Institute
Ces organisations partagent certaines pratiques communes : explicabilité des modèles, gestion proactive des biais, validation rigoureuse des outils déployés, ou encore planification systématique de la réponse aux incidents.
Ces approches – qui doivent se cumuler – resteraient cependant marginales avec 15 % des entreprises qui atteindraient les trois quarts des critères (et 2 % donc, tous les critères). Selon Infosys, la majorité des entreprises continue de percevoir l’IA responsable comme une obligation réglementaire, plutôt que comme un levier stratégique.
Paradoxe, dans le même temps, 78 % des dirigeants interrogés y voient un facteur de croissance, et 83 % estiment que les futures régulations IA pourraient favoriser l’innovation. Ce qui n’empêche pas, dans le même temps, que les entreprises considèrent en moyenne sous-investir dans l’IA responsable à hauteur de 30 %.
Les bons conseils d’Infosys
Infosys recommande plusieurs actions : s’inspirer des pratiques des leaders, allier agilité produit et supervision centralisée, ou encore intégrer l’IA responsable directement dans les plateformes techniques.
L’ESN plaide également pour la création dans chaque entreprise d’un bureau dédié à l’IA responsable, qui sera chargé du pilotage des risques, de la conformité, de la gouvernance à grande échelle et de trouver un équilibre entre innovation et contrôle.
« Exploiter pleinement le potentiel des cas d’usage IA suppose d’abord de bâtir une base solide et responsable, fondée sur la confiance, la gestion des risques, la gouvernance des données et la durabilité », constate Balakrishna D.R., vice-président exécutif d’Infosys.
Jeff Kavanaugh, responsable de l’Infosys Knowledge Institute, ajoute que les entreprises les mieux préparées seront aussi celles « qui s’ouvriront de nouvelles sources de revenus et qui seront les mieux positionnées pour prospérer à l’ère de l’IA agentique ».
Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire