L’acculturation, le talon d’Achille des stratégies IA en entreprise (étude)

Alors que l’intelligence artificielle est vouée à infuser l’ensemble des activités humaines, l’observatoire de l’IA responsable d’Impact AI met en évidence un manque criant d’acculturation des salariés français. Et une différence de perception notable entre les personnes sensibilisées à l’IA et celles qui ne le sont pas.

Fort de ses 80 membres (éditeurs, ESN, entreprises), le collectif Impact AI s’est donné comme mission de favoriser l’adoption de l’IA responsable. En fin d’année dernière, il a mandaté ViaVoice et le centre de prospective GCF pour interroger 1 000 salariés français. Leurs réponses ont été sélectionnées selon la méthode des quotas. L’objectif ? Mesurer la perception du déploiement de l’IA en entreprise.

Un désir d’IA responsable

Selon cet « observatoire de l’IA responsable », 74 % des salariés jugent nécessaire de réguler le développement de l’IA, dont 37 % qui considèrent cette régulation comme tout à fait nécessaire. Au total, 85 % des personnes interrogées se prononcent en faveur de la régulation.

En réponse à la question « quels risques liés à l’IA identifiez-vous prioritairement dans votre entreprise ? », les employés font part de craintes connues. L’impact sur l’emploi (41 %), sur la confidentialité de données (33 %), et la dépendance excessive à l’IA dans les tâches réalisées au travail (31 %) sont les phénomènes les plus redoutés. 

La conformité aux réglementations (24 %) et le manque de transparence de l’IA (23 %) suivent.

De manière intéressante, l’observatoire se penche sur la perception des utilisateurs d’IA et des populations sensibilisées à cette technologie dans le cadre professionnel. Ceux-là identifient les mêmes risques, dans le même ordre et de manière amplifiée.

À ceci près que ces personnes sensibilisées soulignent davantage le risque de dépendance à l’IA (31 % au global, 36 % chez les utilisateurs, 39 % chez les personnes formées), l’amplification des stéréotypes liée à la présence de biais algorithmiques (17 % vs 24 % vs 25 %) et l’uniformisation du travail produit (17 % vs 24 % vs 21 %). L’impact environnemental est le bon dernier de cette liste (11 % vs 15 % vs 17 %).

Notons que 21 % des sondés ne savent pas répondre à la question. Tout comme 23 % des sondés ne répondent pas à la demande précédente concernant l’approche de la gestion des risques en entreprise. Environ 36 % des sondés estiment qu’il faut trouver un équilibre entre innovation, sécurité et responsabilité dans la conduite des projets d’IA en entreprise. Ils sont 21 % à penser qu’il faut privilégier le respect des principes éthiques, quand 10 % mettent l’accent sur l’innovation et les 10 % restant souhaitent une mesure d’impact.     

En conséquence, après avoir pris connaissance d’une définition de l’IA responsable, 63 % des salariés interrogés jugent son développement souhaitable (38 %) ou indispensable (25 %). Et c’est d’autant plus vrai dans les catégories de populations sensibilisées (77 %) et utilisatrices de l’IA (83 %).  

Protection des données personnelles (36 %), respect des droits fondamentaux (27 %), amélioration du bien-être (25 %), respect de l’humain (24 %), respect des principes éthiques (22 %), garantie de la transparence (21 %) et de la santé (20 %) sont les critères les plus plébiscités de l’IA responsable. Mais, là encore, 17 % des sondés préfèrent ne pas répondre.

Pour les salariés, les IA responsables doivent rendre le travail plus efficace (44 %), aider à prendre de meilleures décisions (39 %), consommer moins de ressources (32 %), être transparentes (31 %) et éthiques (30 %). Ici, 15 % des sondés « ne savent pas » et 19 % estiment n’avoir aucune raison pour utiliser ces solutions.

Un manque d’acculturation cruellement perceptible

Entre les défiants, les prudents et les enthousiastes, les salariés interrogés donnent une moyenne de 4,1 sur 10 à la mise en place de l’IA responsable dans leur entreprise. Une moyenne qui grimpe à 5,6 sur 10 chez les employés formés et utilisateurs.

Globalement, seuls 9 % des employés déclarent qu’il existe une charte éthique dans leur entreprise, 30 % ne savent pas et 61 % répondent « non ». Les usagers de l’IA sont 25 % à déclarer avoir pris connaissance de cette charte et 28 % des personnes sensibilisées notent son existence.

« [ Cette étude] révèle un manque de communication et d’appropriation des initiatives existantes, ainsi qu’un déficit de connaissances sur le sujet ».
Émilien GondetConsultant senior, directeur des prévisions et de l’innovation, groupe les Temps nouveaux (GCF)

De même, 63 % des sondés n’ont pas conscience des démarches mises en œuvre par leur employeur en matière d’IA responsable. « Ce chiffre révèle un manque de communication et d’appropriation des initiatives existantes, ainsi qu’un déficit de connaissances sur le sujet », déclare Émilien Gondet, consultant senior, directeur des prévisions et de l’innovation chez le groupe les Temps nouveaux (GCF).

Là encore, plus de 50 % de la minorité d’usagers et de personnes formées ont une connaissance précise ou partielle de ces plans.

Ces démarches sont relatives à la gestion des risques (60 %), à la mise en place de programmes pour informer les salariés (55 %), et à l’évaluation des impacts éthiques des systèmes d’IA (48 %). Dans une moindre mesure à la création d’une gouvernance dédiée à l’IA (38 %).

Quand ces salariés, au fait des pratiques d’IA de leur entreprise, sont partagés sur le fait que l’IA responsable améliorera les relations client (38 %) ou les complexifiera (23-25 %), 31 % de l’ensemble des personnes interrogées estiment que la mise en place de l’IA responsable n’aura aucun impact sur les clients. Là encore, 33 % du panel ne se prononce pas.

Tous ces éléments mettent en évidence un manque d’information : 49 % des salariés ne connaissent pas les principaux atouts de leur entreprise pour l’acculturation à l’IA responsable. Ce ne sont pas moins de 70 % des personnes interrogées qui disent n’avoir jamais été sensibilisées au cours de leur vie professionnelle. Les personnes ayant bénéficié d’un premier niveau d’information représentent 28 % de l’ensemble du panel.

« Ce manque d’information explique pourquoi les salariés privilégient certaines actions : 44 % d’entre eux souhaitent la mise en place d’un dispositif de surveillance de l’IA, ainsi que des garanties sur l’utilisation de l’IA selon des principes éthiques », note Émilien Gondet.

Pourtant, la moitié des sondés disent avoir déjà utilisé l’IA, dont 31 % dans un cadre professionnel. Un taux d’usage « pro » qui grimpe respectivement à 42 % chez les moins de 35 ans, 47 % chez les CSP+, et 41 % chez les salariés du secteur des services, et qui est de 35 % dans les entreprises de plus de 250 salariés.

Un « devoir » d’information

Il y a pourtant de l’espoir. « L’étude souligne que la mise en place de parcours d’information (et de formations) a eu un impact positif sur la compréhension et l’appropriation par les salariés des enjeux liés à une IA responsable, au-delà du développement de procédures visant à gérer les risques », note Émilien Gondet.

Et à KPMG, partenaire de l’observatoire, d’en illustrer les effets. « Chez KPMG, nous avons mis en place un programme d’acculturation qui a permis à 1 200 collaborateurs et à 160 de nos dirigeants associés l’appropriation concrète de cette technologie », témoigne Albane Liger-Belair, associé en charge de l’innovation KPMG en France et membre du CA Impact AI. « Nous sommes passés d’une appréhension forte à un enthousiasme, certes qu’il faut parfois modérer, mais il est clair que plus l’on s’approprie ces technologies, mieux l’on saisit le potentiel qu’elles peuvent offrir ».

Une approche partagée par l’autre partenaire de l’étude, BNP Paribas. Le groupe bancaire a organisé sa septième « AI Summer School ». En 2024, ce sont 4 000 collaborateurs de tous horizons qui ont participé à l’événement interne. Précisons que le groupe compte 3 000 « spécialistes de la data et de l’IA », dont 700 data scientists et business analysts.  

« Je pense qu’il y a un devoir de toutes les entreprises de transmettre un minimum d’informations auprès de l’ensemble des salariés, car l’IA fait désormais partie de leur vie ».
Hélène ChinalDirectrice de la transformation Europe du Sud et Central, Capgemini

« L’acculturation et évidemment la formation sont des enjeux forts », réagit Hélène Chinal, directrice de la transformation Europe du Sud et Central chez Capgemini. « Chez nous, c’est impossible que nos salariés ne soient pas au fait de ce que nous faisons », avance-t-elle. « Nous avons des modules obligatoires de formation pour 100 % des salariés, qui se terminent par la prise de connaissances de la charte éthique [de l’IA] », poursuit-elle. « Si vous n’avez pas suivi ces modules, c’est le CEO du groupe qui vous rappelle que vous devez les suivre. Je pense qu’il y a un devoir de toutes les entreprises de transmettre un minimum d’informations auprès de l’ensemble des salariés, car l’IA fait désormais partie de leur vie ».

Reste à savoir comment les entreprises qui ont pris plus de retard ou qui n’ont pas les moyens de ces grands groupes peuvent se mettre à niveau.

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire