Elnur - stock.adobe.com

IA générique et généralisation de l’IA : les défis des industriels

Les industriels sont confrontés à des problématiques majeures. Encouragés par le consensus scientifique à adopter des modèles d’IA génériques, ils n’arrivent pas à généraliser correctement l’apprentissage des réseaux de neurones, qui malgré les promesses demeurent difficiles à comprendre, à expérimenter, à déployer et à superviser en conditions réelles.

Cet article est extrait d'un de nos magazines. Téléchargez gratuitement ce numéro de : Applications & Données: Comprendre le métavers : les opportunités pour votre entreprise

Actuellement, les techniques d’apprentissage profond basées sur des réseaux de neurones artificiels visent à accomplir certaines tâches, tels le traitement du langage naturel et la vision par ordinateur.

En clair, les grands groupes et les laboratoires de recherche se penchent sur l’amĂ©lioration et l’optimisation des diffĂ©rentes architectures de rĂ©seaux de neurones afin d’accĂ©lĂ©rer les apprentissages et les rendre plus prĂ©cis. Ils dĂ©veloppent des techniques et itèrent sur des moyens de traiter le langage et les images. Derrière ces objectifs gĂ©nĂ©raux, les modèles de NLP et de computer vision sont entraĂ®nĂ©s pour accomplir certaines tâches : identification/dĂ©tection, classification, segmentation, corrĂ©lation, prĂ©diction, etc.

C’est ce qui a donnĂ© naissance aux modèles de deep learning prĂ©entraĂ®nĂ©s : BERT, ResNET, GPT, VGG… et toutes leurs variantes. Les travaux de chercheurs de Facebook (Meta), de Google, de Microsoft et d’une myriade de laboratoires de recherche ont permis de faire avancer le domaine et de commercialiser des logiciels et solutions qui exploitent ces techniques.

 La maĂ®trise scientifique de ces domaines est si avancĂ©e, que Meta AI â€“ l’unitĂ© de recherche de Facebook â€“ a prĂ©sentĂ© en janvier 2022 Data2Vec, un seul modèle autosupervisĂ© capable de traiter Ă  la fois du texte, des images et de retranscrire la voix (speech-to-text), en Ă©galant les modèles spĂ©cifiques Ă  ces tâches.

De l’IA générique au monde réel

Cependant, il faut noter que ces algorithmes de NLP et de computer vision demandent Ă  ĂŞtre adaptĂ©s aux cas d’usage spĂ©cifiques. En effet ces rĂ©seaux de neurones ont Ă©tĂ© entraĂ®nĂ©s sur de vastes jeux de donnĂ©es gĂ©nĂ©riques rassemblĂ©s sur le Web. Par exemple, le modèle NLP BERT a « appris Â» l’anglais Ă  partir de pages WikipĂ©dia. Pour qu’un encodeur assimile le français, il a fallu adapter le jeu de donnĂ©es et les annotations. Le problème se complexifie de nouveau quand il est question d’assimiler les accents dans un système de speech to text, selon Eric Charton, directeur AI Science pour la Banque Nationale du Canada.

Pour le traitement des images, Google et Microsoft ont rassemblé des banques d’images qui contiennent des millions d’images qu’il a fallu annoter et libeller. En clair, ces formes d’IA sont génériques.

Pour les adapter Ă  des cas d’usage « dans le monde rĂ©el Â», la mĂ©thode traditionnelle consiste Ă  « fine tuner Â» (effectuer des rĂ©glages fins) afin de reproduire les rĂ©sultats attendus dans le domaine spĂ©cifique, adapter le modèle Ă  des jeux de donnĂ©es beaucoup moins volumineux, ajuster ses poids suivant la ou les tâches. 

C’est l’un des problèmes rencontrĂ©s par Valeo. L’équipementier automobile dĂ©veloppe son propre système de conduite autonome. Comme l’expliquait Flora Dellinger â€“ Machine Learning Software Engineer chez Valeo, lors du webinaire de l’acadĂ©mie des technologies du 20 janvier dernier â€“, les industriels doivent acquĂ©rir leurs propres donnĂ©es, les sĂ©lectionner, puis les annoter depuis de nombreux capteurs Ă©quipant les vĂ©hicules de test. Un travail considĂ©rable.

« Une fonction critique est une fonction dont le dysfonctionnement met en pĂ©ril la sĂ©curitĂ© des personnes ou de biens stratĂ©giques. Â»
Daniel DuclosDirecteur technique dĂ©partement de recherche « Sciences et Technologies du NumĂ©rique Â», Safran Tech

L’autre méthode qui s’impose petit à petit se nomme le transfer learning. Cette technique consiste à transférer la connaissance d’un modèle entraîné sur une tâche à une variante de ce modèle capable de traiter une autre tâche similaire. Plus les tâches sont proches, plus les résultats sont bons. Là encore, rien de magique.

Or dans le monde industriel, ces modèles de deep learning issus d’approches gĂ©nĂ©ralistes sont amenĂ©s Ă  assurer des fonctions critiques. « Une fonction critique est une fonction dont le dysfonctionnement met en pĂ©ril la sĂ©curitĂ© des personnes ou de biens stratĂ©giques Â», dĂ©finit Daniel Duclos, directeur technique au dĂ©partement de recherche « Sciences et Technologies du NumĂ©rique Â» chez Safran Tech.

Ces fonctions sont tout ou partie de systèmes complexes, en premier lieu les futurs vĂ©hicules autonomes aĂ©riens, maritimes et terriens. « C’est Ă©videmment une question absolument centrale pour la communautĂ© aĂ©ronautique. L’on ne peut pas utiliser des algorithmes qui prennent des dĂ©cisions sur des fonctions critiques sans en connaĂ®tre les performances. Or il est difficile d’expĂ©rimenter ces modèles en condition rĂ©elle Â», expose le spĂ©cialiste.

 Faire voler un avion de ligne ou un chasseur de manière totalement autonome paraĂ®t insensĂ© tant le prix d’un appareil est coĂ»teux et les risques sont grands. Si la lĂ©gislation est plus permissive quant aux voitures autonomes, les essais sont souvent limitĂ©s Ă  des environnements contrĂ´lĂ©s : les systèmes d’IA n’apprennent pas les « corner cases Â», les situations rares comme les accidents, les traversĂ©es intempestives des piĂ©tons ou autres chutes d’objets sur la chaussĂ©e. Il faut alors recourir Ă  la gĂ©nĂ©ration de donnĂ©es et Ă  la simulation.

D’une approche basée sur les modèles à une autre centrée sur les données

Pourquoi est-il si difficile de dĂ©ployer des systèmes intelligents dans le monde rĂ©el ? Pourtant, les algorithmes de traitement et d’analyse d’images existent de longue date dans le domaine de l’aviation. « L’approche traditionnelle consiste Ă  dĂ©finir un algorithme Ă  partir de logiques, d’heuristiques dont le nombre de dimensions est relativement limitĂ© Â», constate Daniel Duclos. « Une image est d’abord prĂ©traitĂ©e pour amĂ©liorer le contraste, limiter le bruit avant d’en extraire les features. Ă€ partir de ces paramètres, nous appliquons des logiques gĂ©omĂ©triques (2D, 3D), colorimĂ©triques, pour tenter de reconnaĂ®tre des objets dans l’image sur la base de ces propriĂ©tĂ©s Â».

Dans ce cas-lĂ , l’algorithme peut ĂŞtre dĂ©composĂ© en une suite linĂ©aire d’actions « oĂą chaque contribution est explicite et a un rĂ´le dĂ©terminĂ© dans la recherche de la solution Â». Dans ce paradigme, c’est l’exĂ©cution de l’algorithme qui est parfois complexe, suivant le nombre de cas Ă  traiter, selon Daniel Duclos.

Ces fonctions sont tout ou partie de systèmes complexes, en premier lieu les futurs vĂ©hicules autonomes aĂ©riens, maritimes et terriens. « C’est Ă©videmment une question absolument centrale pour la communautĂ© aĂ©ronautique. L’on ne peut pas utiliser des algorithmes qui prennent des dĂ©cisions sur des fonctions critiques sans en connaĂ®tre les performances. Or il est difficile d’expĂ©rimenter ces modèles en condition rĂ©elle Â», expose le spĂ©cialiste.

« Du fait de la variation des donnĂ©es d’entrĂ©e, des diffĂ©rentes mĂ©thodes d’apprentissage, de la complexitĂ© des architectures, la performance est très difficile Ă  prĂ©dire et Ă  contrĂ´ler. Â»
Patrick PérezDirecteur scientifique du laboratoire d’intelligence artificielle, Valeo

Faire voler un avion de ligne ou un chasseur de manière totalement autonome paraĂ®t insensĂ© tant le prix d’un appareil est coĂ»teux et les risques sont grands. Si la lĂ©gislation est plus permissive quant aux voitures autonomes, les essais sont souvent limitĂ©s Ă  des environnements contrĂ´lĂ©s : les systèmes d’IA n’apprennent pas les « corner cases Â», les situations rares comme les accidents, les traversĂ©es intempestives des piĂ©tons ou autres chutes d’objets sur la chaussĂ©e. Il faut alors recourir Ă  la gĂ©nĂ©ration de donnĂ©es et Ă  la simulation.

« Avec le deep learning, c’est l’inverse Â», poursuit-il. « L’exĂ©cution est relativement simple, mais la structure de l’algorithme est complexe : il y a plusieurs millions voire des milliards de paramètres souvent inconnus et les traitements sont fortement non linĂ©aires Â». La contribution des diffĂ©rentes couches d’un rĂ©seau de neurones Ă  la performance finale du modèle n’est « pas ou peu explicite Â».

« Du fait de la variation des donnĂ©es d’entrĂ©e, des diffĂ©rentes mĂ©thodes d’apprentissage, de la complexitĂ© des architectures, la performance est très difficile Ă  prĂ©dire et Ă  contrĂ´ler Â», observe Patrick PĂ©rez, directeur scientifique du laboratoire d’intelligence artificielle chez Valeo. « L’un des objectifs est de gĂ©nĂ©raliser l’apprentissage d’un modèle. Dans la pratique, l’on constate que la gĂ©nĂ©ralisation est souvent très dĂ©cevante. Le modèle peut faire des erreurs qui sont totalement sidĂ©rantes. Les rĂ©sultats en sortie peuvent ĂŞtre inattendus, mĂŞme quand ils doivent ĂŞtre très proches des donnĂ©es en entrĂ©e Â».

 Les spĂ©cifications des donnĂ©es en entrĂ©e ne sont pas aussi limpides. Alors que la mĂ©thode traditionnelle permet de s’appuyer sur des règles explicites, par exemple les formes, les dimensions et les couleurs des panneaux de signalisation dĂ©finis dans le Code de la route ; la computer vision impose d’annoter les donnĂ©es : la connaissance est diffuse. « La connaissance est dans les annotations, dans les fonctions qui permettent de comparer les donnĂ©es en entrĂ©e et les rĂ©sultats en sortie, dans la conception du modèle, etc. Toutes les formes de connaissance ne sont pas forcĂ©ment exploitables Â», prĂ©cise Patrick PĂ©rez. En cas d’incertitude, avec un algorithme traditionnel, il est possible de modĂ©liser des règles dans un système expert, explique Daniel Duclos.

Des modèles plus performants, mais plus difficiles à contrôler

Alors, pourquoi s’efforcer Ă  employer des rĂ©seaux de neurones dans des systèmes complexes ? « Puisque le deep learning et le machine learning donnent de bons rĂ©sultats, que ce sont des outils plus performants, l’on tente de les appliquer Ă  des problèmes plus ouverts Â», affirme le responsable chez Safran. Et si l’effet « boĂ®te noire Â» freine grandement les expĂ©rimentations avec le deep learning, l’utilisation de systèmes experts et d’algorithmes traditionnels ne ferait pas mieux.

« Le monde ouvert nous prĂ©occupe dans la conception de voitures autonomes. Â»
Patrick PérezDirecteur scientifique, laboratoire d’intelligence artificielle, Valeo

« L’on pourrait dĂ©velopper des vĂ©hicules autonomes avec des algorithmes Ă  l’ancienne, mais leur application dans un domaine ouvert provoquerait les mĂŞmes difficultĂ©s Â», constate Daniel Duclos.

« Le monde ouvert nous prĂ©occupe dans la conception de voitures autonomes. Le fait que le modèle de deep learning ne gĂ©nĂ©ralise pas l’apprentissage correctement, qu’il peut y avoir de possibles dĂ©rives dans le temps ou que des perturbations provoquent des dysfonctionnements sont autant d’élĂ©ments Ă  prendre en compte Â», liste Patrick PĂ©rez.

Ces points d’attention ont un prix. Cela demande de revoir les approches de développement (intégrer les principes MLOps dans les cycles en V, ce qui donnerait des cycles en W), les processus contraignants et les normes, d’adapter ou de créer des équipements spécifiques et certifiés pour des usages critiques, et de mettre en place un ensemble de méthodes de contrôle et de mesure de la complexité de l’architecture d’un réseau de neurones.

Découplage, dédoublement des fonctions critiques, processus… les bonnes habitudes des industriels

Il y a toutefois un point rassurant dans le domaine de l’aviation. « Un groupe de travail de l’association SAE EUROCAE a rĂ©cemment comparĂ© les normes applicables dans le domaine de l’aĂ©ronautique et a pointĂ© en quoi l’utilisation de l’IA va poser problème pour chacune d’entre elles Â», raconte Daniel Duclos. « La bonne nouvelle, c’est que la grande majoritĂ© de ces standards restent applicables, mais les difficultĂ©s que j’ai Ă©voquĂ©es en sus des questions d’explicabilitĂ© demeurent Â».

De son cĂ´tĂ©, l’Agence europĂ©enne de la sĂ©curitĂ© aĂ©rienne (AESA) anticipe que les premières solutions d’IA d’assistance au pilotage seront validĂ©es Ă  l’horizon 2025. « Avec les niveaux d’autonomie suivants, l’objectif est de rendre possible le pilotage d’un avion de ligne par un pilote au cours de la dĂ©cennie, au lieu de deux actuellement Â», rĂ©sume l’expert de Safran.

« Avec les niveaux d’autonomie suivants, l’objectif est de rendre possible le pilotage d’un avion de ligne par un pilote au cours de la dĂ©cennie, au lieu de deux actuellement. Â»
Daniel DuclosSafran Tech

L’avion totalement autonome n’est pas pour tout de suite. En revanche, l’on peut s’attendre Ă  l’apparition de modules d’IA certifiĂ©s, explicables, encapsulĂ©s dans des systèmes complexes. « L’on s’oriente d’abord vers l’utilisation de modules d’IA placĂ©s dans des filets de sĂ©curitĂ© qui vont s’assurer que le comportement de l’IA n’engendre pas de risques dans les systèmes, que ces risques ne se propagent pas Â», avance Daniel Duclos. Les mĂ©thodes de mitigation sont connues : le dĂ©doublement des systèmes (dĂ©ploiement de plusieurs algorithmes diffĂ©rents, entre autres) et l’application de règles strictes d’exĂ©cution.

Selon Patrick PĂ©rez, il en va de mĂŞme dans le domaine de la voiture autonome. Un modèle de deep learning n’effectue pas la tâche finale ; ce sont plusieurs algorithmes et systèmes fonctionnant de concert qui doivent assurer le fonctionnement et la sĂ©curitĂ© du vĂ©hicule. Le monde industriel est donc très loin de l’approche dĂ©fendue par Meta et les gĂ©ants du cloud, fervents dĂ©fenseurs des mĂ©gamodèles et de l’IA gĂ©nĂ©rale.

Pour approfondir sur Intelligence Artificielle et Data Science