L’intelligence artificielle générale sera-t-elle bientôt une réalité ?

L’intelligence artificielle générale sera-t-elle bientôt une réalité ? Et si l’IAG devient vraiment une réalité un jour, est-ce qu’elle fonctionnera comme le cerveau humain ? Ou existerait-il une meilleure voie à suivre pour créer des machines intelligentes ?

Depuis les tout premiers jours de l’intelligence artificielle, et plus généralement de l’informatique, des théoriciens sont partis du principe que les machines intelligentes réfléchiraient d’une manière très comparable aux humains. Après tout, nous ne connaissons pas de pouvoir cognitif plus puissant que celui notre cerveau. À de nombreux égards, il est logique d’essayer de le répliquer si l’objectif est de créer un traitement cognitif intensif.

Suite de l'article ci-dessous

Mais actuellement, la meilleure voie à suivre pour atteindre la véritable IAG fait débat. Plus particulièrement, les avancées de ces dernières années dans le domaine du deep learning, inspiré lui-même du fonctionnement du cerveau humain malgré des divergences non négligeables, ont montré aux développeurs que d’autres voies étaient possibles.

Qu’est-ce que l’intelligence artificielle générale ?

Pour beaucoup d’entre nous, l’IAG est l’objectif ultime du développement de l’intelligence artificielle. Depuis les tout débuts de l’IA dans les années 1950, les ingénieurs imaginent des robots intelligents capables de réaliser toutes sortes de tâches et passant facilement de l’une à l’autre. L’IAG aurait la capacité d’apprendre, de raisonner, de planifier, de comprendre le langage humain et de faire preuve de logique.

En bref, l’IAG serait une machine capable de penser et d’apprendre quasiment comme un humain. Elle comprendrait les contextes situationnels et pourrait transposer à d’autres tâches ce qu’elle a appris de l’exécution d’une première.

À quel stade en est l’IAG ?

L’IAG est encore loin de devenir une réalité. Aujourd’hui, les machines les plus intelligentes échouent complètement lorsqu’on leur demande d’exécuter de nouvelles tâches. Même les jeunes enfants sont capables d’appliquer à de nouvelles tâches ce qu’ils apprennent dans une situation donnée, d’une manière que les machines les plus complexes utilisant l’IA ne parviennent pas à faire. 

Les chercheurs essaient de résoudre ce problème. De nombreuses approches, axées pour la plupart sur le deep learning, visent à répliquer en partie le fonctionnement de l’intelligence. Les réseaux neuronaux sont généralement considérés comme ce qu’il se fait de mieux lorsqu’il s’agit d’apprendre des corrélations dans des séries de données d’apprentissage. L’apprentissage par renforcement est un outil puissant qui permet d’apprendre aux machines à comprendre par elles-mêmes comment exécuter une tâche qui suit des règles clairement définies. Grâce aux réseaux antagonistes génératifs (Generative averserial network ou GAN en anglais), les ordinateurs sont capables d’adopter des approches plus créatives pour résoudre les problèmes.

Mais peu d’approches combinent certaines, ou l’ensemble, de ces techniques. Cela signifie que les applications d’IA actuelles ne peuvent exécuter que des tâches restreintes, et sont donc loin de remplir les promesses de l’intelligence artificielle générale.

À quoi pourrait ressembler une approche de l’IAG plus comparable au fonctionnement humain

Gary Marcus, fondateur et président-directeur général de Robust.ai, une société établie à Palo Alto (Californie), qui tente de développer une plateforme cognitive pour une série de bots, est partisan d’une IAG qui fonctionnerait plus comme l’esprit humain. Lors d’une conférence EmTech Digital virtuelle du MIT Technology Review, il a déclaré que les algorithmes de deep learning d’aujourd’hui n’ont pas la capacité de contextualiser et de généraliser les informations, alors que cela fait partie des principaux avantages de la réflexion humaine.

Selon lui, il n’est pas nécessaire que les machines reproduisent expressément le cerveau humain, neurone par neurone. Mais certains aspects de la pensée humaine, tels que l’utilisation de la représentation symbolique des informations pour extrapoler des connaissances à un ensemble plus large de problèmes, permettraient de se rapprocher de ce que doit être l’intelligence artificielle générale.

« Nous pouvons entraîner tout un tas d’algorithmes avec des données étiquetées, mais ce qu’il nous faut c’est une compréhension plus approfondie. »
Gary MarcusFondateur et PDG, Robust.ai

« Le [deep learning] ne fonctionne pas pour le raisonnement ou la compréhension du langage, dont nous avons désespérément besoin à l’heure actuelle, observe Gary Marcus. Nous pouvons entraîner tout un tas d’algorithmes avec des données étiquetées, mais ce qu’il nous faut c’est une compréhension plus approfondie. »

La raison pour laquelle le deep learning a des difficultés à raisonner ou à généraliser les informations est que les algorithmes ne savent faire que ce qu’on leur a montré. L’apprentissage d’un modèle de reconnaissance d’images nécessite des milliers, voire des millions de photos étiquetées. Et même une fois que cet apprentissage est terminé, le modèle de deep learning n’est pas capable d’exécuter des tâches différentes telles que la compréhension du langage naturel.

Selon Luc Julia, cocréateur de Siri, là où un modèle de deep learning avait besoin de 100 000 images étiquetées en 1997 pour reconnaître un chat, un enfant de deux ans n’a besoin de voir que « deux instances de chat » pour savoir ce que c’est. C’est-à-dire que l’humain perçoit davantage d’informations (position du chat dans l’espace, mouvement, odeur, toucher, etc.) qui l’aident à catégoriser rapidement un être vivant.

Malgré ces limitations, Gary Marcus ne plaide pas en faveur d’un abandon du deep learning. Au contraire, il préconise que les développeurs étudient les moyens de combiner le deep learning avec les approches classiques de l’intelligence artificielle, notamment des interprétations plus symboliques des informations : par exemple, les graphes de connaissances contextualisent les données, en reliant entre elles des informations qui sont sémantiquement proches, tout en utilisant des modèles de deep learning, pour comprendre comment les humains interagissent avec les informations et pour s’améliorer progressivement.

« Nous devons arrêter de développer des applications IA pour les technologies publicitaires et les fils d’actualité, et commencer à développer des applications qui peuvent faire vraiment la différence, insiste Gary Marcus. Pour y arriver, nous devons construire des systèmes reposant sur une compréhension profonde, pas seulement sur un apprentissage profond. »

Arguments en faveur du deep learning

Mais tout le monde n’est pas d’accord. Dans son allocution lors de la conférence, Danny Lange, vice-président du département IA et machine learning chez Unity Technologies, un éditeur d’un moteur de développement de jeux vidéo, a expliqué que les efforts visant à répliquer le raisonnement humain pourraient, sans le vouloir, brider les capacités d’apprentissage des machines. Les modèles de deep learning fonctionnent d’une manière complètement différente du cerveau humain et, si on leur fournit des données et une puissance de calcul suffisantes, personne ne peut savoir jusqu’où ils pourraient aller. Même si l’intelligence artificielle générale est encore loin d’être une réalité, le deep learning pourrait nous en rapprocher.

« Ce que j’apprécie avec le deep learning, c’est que si vous l’alimentez avec suffisamment de données, il est capable d’apprendre des abstractions que nous les humains ne savons pas interpréter », a précisé Danny Lange.

Luc Julia prend l’exemple d’AlphaGo de DeepMind qui a battu le champion du jeu de plateau Go coréen, Lee Sedol, avec des coups jamais utilisés par un humain auparavant.

L’un des domaines du deep learning en particulier, l’apprentissage par renforcement, pourrait nous rapprocher de l’intelligence artificielle générale. Selon Danny Lange, ces algorithmes fonctionnent vraiment d’une manière comparable à la réflexion humaine pour ce qui est de l’apprentissage de nouvelles tâches. Et il y a eu des exemples dans des environnements synthétiques qui ont montré leur capacité à généraliser des apprentissages d’une tâche à une autre.

Danny Lange pense également que les développeurs pourraient accélérer l’apprentissage des modèles de deep learning, ce qui constitue actuellement l’un des principaux obstacles. Il aimerait que plus d’efforts soient consacrés à l’optimisation des jeux de données utilisés pour entraîner les modèles, afin que les algorithmes n’aient plus besoin de voir des millions d’exemples d’un élément pour apprendre à le reconnaître. Cette idée fait son chemin, mais Danny Lange pense que cela permettrait de repousser les limites actuelles du deep learning.

Les capacités informatiques représentent également une limite. Entraîner Alphago a réclamé l’utilisation de 1 900 CPU et 280 GPU et plusieurs semaines de fonctionnement, selon The Economist. Cela représente une consommation de plusieurs centaines de kilowatts alors qu’un cerveau humain n’a besoin que de 20 watts pour fonctionner.

Le modèle de génération de langage (NLG) GPT-3 d’OpenAI dépend de 175 milliards de paramètres et réclame d’utiliser 400 GPU. Et encore, Microsoft, qui bénéficie d’une licence d’exploitation exclusive, travaille sur des techniques d’optimisation pour réduire le coût et les temps d’apprentissage sur des algorithmes de deep learning à grande échelle.

« Aujourd’hui les données et la puissance de calcul dont nous disposons sont limitées, affirme Danny Lange. Mais nous n’en sommes encore qu’aux débuts du deep learning. »

Pour approfondir sur Intelligence Artificielle et Data Science

Close