Air France - KLM en route vers l'IA (3) : Machine Learning et plannings

Le projet pour infuser l'Intelligence Artificielle (IA) dans le groupe ne concerne qu'à la marge la création des plannings des navigants. Une preuve de plus que l'IA appliquée aux RH est une question très sensible.

Il y a des domaines plus sensibles que d'autres lorsque l'on parle d'Intelligence Artificielle. Celui des ressources humaines est, de loin, le plus délicat. Le projet d'infuser l'IA dans le groupe Air France - KLM, mené par Waïl Benfatma, Artificial Intelligence Program Manager, ne fait pas exception à la règle.

Ses chatbots et l'informatique cognitive (reconnaissance d'images appliquée aux bagages ou sémantique pour « lire » des textes) n'ont posé aucune question particulière en interne. Le prédictif et le prescriptif appliqués au fret dans l'activité Cargo non plus. Mais l'IA appliquée aux très complexes plannings des navigants (12.000 hôtesses et stewards, et 3.600 pilotes) semble relever d'une autre catégorie.

Moteur de règles vs Machine Learning

« C’est le coeur historique de notre département de travailler sur des algorithmes qui permettent de faire de l’optimisation de ressources. Nous travaillons depuis longtemps sur la mise en place d'outils d’optimisation [des plannings] », répond Waïl Benfatma au MagIT. « Mais c’est plutôt de la recherche opérationnelle ».

Les plannings complexes des navigants sont déterminés par un moteur de règles

Car tous les algorithmes ne sont pas de l'IA. « C'est à partir de règles que nous construisons des plannings qui seront un peu plus figés pour le futur ». C'est donc un moteur classique de règles - même si ces règles sont complexes et nombreuses - qui détermine les rotations de chaque employé. Et il n'est pas question d'y toucher.

Le Machine Learning pourrait pourtant avoir son intérêt, en tout cas sur le papier. Les emplois du temps des navigants dits « commerciaux » (hôtesse et stewards) ne sont en effet figés et officiels que cinq jours avant leur application. Dit autrement, c'est le 25 août que les personnels sauront où et à quelles dates ils seront envoyés en septembre.

Le Machine Learning, en apprenant des précédents plannings et de ceux à venir, pourrait au fur et à mesure optimiser les prévisions des vols et des ressources disponibles, puis prédire l'allocation des ressources nécessaires à leurs réalisations. Et au bout du compte, sortir des plannings plus en amont sans perdre en efficacité opérationnelle.

Flexibilité opérationnelle vs Algorithme

Sur le papier, donc, le projet semble pertinent. Mais dans la vraie vie, les choses sont plus compliquées. « La réglementation est très stricte sur les plannings. Ce serait difficile à faire » avance dans un premier temps le Monsieur IA d'Air France - KLM.

Dans un deuxième temps, Waïl Benfatma nuance néanmoins cette explication réglementaire. Pour lui, il est tout simplement faux de penser que le Machine Learning pourrait sortir des plannings plus en amont. « Et si nous construisons le planning trop loin, nous allons être obligés de le figer. Et du coup nous allons nous interdire de pouvoir modifier les vols », explique-t-il au MagIT.

Cette réponse traduit deux points clefs pour l'IA.

Le premier est que les algorithmes prédictifs ne sont pas magiques. Ils ne peuvent s'appliquer qu'aux champs qui sont effectivement prévisibles - et pas à ceux où les données passées sont aléatoires et où il est difficile de trouver des récurrences et des corrélations (ce qui semble être le cas ici).

Au final, et de manière générale au-delà du cas d'Air France, il est - aujourd'hui encore - plus simple pour une entreprise d'obtenir de la flexibilité opérationnelle par l'adaptabilité de ses personnels qu'en misant sur une démarche algorithmique.

Interprétabilité, « boîte noire » et Intelligence Artificielle appliquée aux RH

Le deuxième point concerne la transparence et la notion d'interprétabilité de l'algorithme.

Si Air France - KLM appliquait une méthode de type Machine Learning sur ses employés, il faudrait que cette méthode soit explicable, auditable et vérifiable par ceux qui s'estimeraient lésés - ou qui voudraient la comprendre.

Un algorithme de Machine Learning appliqué aux RH doit être explicable, auditable et vérifiable. Ses apprentissages aussi.

La logique est la même que, par exemple, celle des outils de scoring de dossiers et de sélection des étudiants à l'entrée de l'enseignement supérieur ou que celle de la justice prédictive. Un sujet est en droit de demander comment un outil informatique a décidé de lui accorder tel choix - et pas tel autre - ou les critères de son évaluation.

Par opposition, « dans la construction des plannings, il n’y a pas d’IA. Ce sont des moteurs de règles que l’on est capable d’expliquer », insiste Waïl Benfatma. Se lancer dans du Machine Learning impliquerait de garder cette transparence et de ne pas avoir de « boite noire » algorithmique, ce qui est le cas dans le projet Cargo « où nous nous autorisons à déployer des algorithmes qui ne sont pas explicables du moment que la solution reste maîtrisée ».

Cette contrainte réduirait donc les options possibles de choix de méthodes, et exclurait presqu'à coup sûr les algorithmes propriétaires. Or développer un algorithme en interne demande des ressources que n'a pas forcément aujourd'hui Air France - KLM qui a choisi de passer par des collaborations externes - notamment universitaires - pour explorer d'autres usages prédictifs.

Enfin, il faudrait également suivre l'apprentissage de l'algorithme appliqué aux plannings pour répondre aux questions des employés sur les nouveaux critères qu'il a lui-même générés.

On comprend qu'un tel projet puisse être vu comme un facteur de risque qui sent le souffre numérique plutôt que comme une solution pratique à un problème sensible.

Du Machine Learning à la marge

Néanmoins, Waïl Banfatma n'exclue pas totalement d'appliquer l'IA dans l'organisation des emplois du temps. Au contraire, un projet est en cours, mais à la marge, pour mieux comprendre et optimiser les ajustements en fonction des contraintes de dernières minutes (retards, arrêts maladies, etc.).

« On a essayé, et on essaye, d’appliquer l’AI après - une fois qu’il y a la solution du planning. Nous testons des techniques de Machine Learning pour faire un apprentissage et voir si on ne peut pas tirer des enseignements de ces changements qui sont faits a posteriori », conclue Waïl Banfatma.

Pour approfondir sur Outils décisionnels et analytiques

Close