Machine Learning, Deep Learning, AI, Informatique cognitive : quelles différences ?

Ces termes sont de plus en plus employés par les éditeurs et leurs partenaires. Emmanuel Vignon, Watson Practice Leader chez IBM France revient sur ce que recouvre chacun de ces concepts, et comment ils s’articulent.

L'Intelligence Artificielle est un terme créé en 1956 à la conférence de Dartmouth et qui désigne le fait pour une machine de réaliser des processus de raisonnement habituellement réalisés par des êtres humains. Le champ de l'Intelligence Artificielle est très large et couvre différentes disciplines telles que la compréhension, le calcul, le raisonnement, l'apprentissage, la perception, le dialogue en langage naturel, etc.

L'informatique cognitive est une discipline de l'Intelligence Artificielle. D'un point de vue purement sémantique, "cognitif" signifie un processus mental réalisé en conscience, comme par exemple penser, réfléchir, comprendre ou encore apprendre. L'informatique cognitive est donc la faculté de doter les machines de ces capacités-là.

L'Intelligence Artificielle et en particulier l'informatique cognitive font appel à diverses technologies pour atteindre des objectifs différents. Les premières machines qualifiées d'artificiellement intelligentes étaient les systèmes experts basés sur des règles métier. Ces systèmes, apparus dans les années 70 (MYCIN pour le plus connu), ont permis déjà à l'époque des réalisations prodigieuses considérant les faibles puissances des ordinateurs à cette période.

Machine Learning

De nos jours, deux approches technologiques se détachent bâtir des solutions d'Intelligence Artificielle. D'une part les systèmes déterministes, à base de règles, et d'autre part des systèmes s'appuyant sur des algorithmes de Machine Learning. Contrairement aux moteurs de règles qui se contentent d'appliquer des formules et des algorithmes construits par le concepteur de la solution, les algorithmes de Machine Learning permettent à des ordinateurs de reproduire des processus cognitifs par mimétisme.

Ainsi, pour apprendre à reconnaître un chat, vous ne construisez pas des règles telles que c'est un animal à quatre pattes, de petite taille, avec des poils, une queue et qui retombe toujours sur ses pattes. Au contraire, vous vous contentez de montrer à la machine des images de chat. Charge à l'ordinateur de comprendre les caractéristiques similaires entre les photos qui lui permettront de reconnaître tous les autres chats du monde.

Le monde des algorithmes de Machine Learning est très vaste et chaque algorithme doit être choisi en fonction de la tâche à accomplir.

Deep Learning

Dans cette jungle, des algorithmes de plus ou moins grande complexité se cotoient. C'est ainsi que depuis quelques années, beaucoup de recherches ont été menées sur des algorithmes impliquant des réseaux de neurones formels.

Ces algorithmes s'inspirent du fonctionnement des neurones et des synapses du cerveau humain. Ils en reproduisent des mécanismes grâce à des couches de neurones successives. Sans entrer dans le détail des réseaux de neurones formels, disons que les plus simples, appelés perceptron, se contentent de présenter uniquement deux couches de neurones ; une couche d'entrée, une couche de sortie ; chaque couche pouvant disposer de plusieurs neurones (centaines, milliers, voire millions).

Les valeurs des neurones de sorties dépendent des valeurs des neurones d'entrées ainsi que d'un apprentissage du réseau qui qualifie les relations entre les neurones.

Si vous demandez à dix experts de définir ce qu'est le Deep Learning, vous aurez probablement dix bonnes réponses différentes. Le Deep Learning, d'un point de vue purement technique et algorithmique, consiste à disposer d'un réseau de neurones disposant d'une ou plusieurs couche(s) cachée(s) (entre la couche d'entrée et la couche de sortie).

Un avantage substantiel de ces modèles d'algorithme est d'offrir un mécanisme permettant de s'affranchir de la forte linéarité du modèle des réseaux neuronaux de type perceptron. Cela permet d'adresser des problématiques plus complexes, plus proches des situations réelles de notre environnement humain. Ainsi, des études récentes ont montré que le Deep Learning révèlait des résultats prometteurs dans les domaines de la reconnaissance visuelle et du traitement du langage naturel.

Watson et le Deep Learning

IBM Watson est une plate-forme cognitive qui propose plusieurs services cognitifs.

« Si le Deep Learning permet de résoudre des problèmes complexes, il faut aussi garder à l'esprit qu'il ne constitue pas la seule technologie mise en œuvre dans les solutions Watson. Dans IBM Watson, chaque service est un assemblage précis et équilibré de différentes technologies d'Intelligence Artificielle dont le Deep Learning », explique Emmanuel Vignon.

« Les laboratoires de recherche d'IBM exploitent ces techniques car elles représentent ce qui se fait de mieux en matière de recherches algorithmiques pour résoudre certains types de problème. De la capacité à extraire des entités nommées, jusqu'à la reconnaissance vocale en passant par l'annotation de texte, le Deep Learning est omniprésent et chaque nouvelle version de produit ou service améliore la pertinence et la précision tout en réduisant l'effort d'entrainement et de paramétrage des services ».

Pour approfondir sur Outils décisionnels et analytiques

Close