Definition

Machine Learning

Cette définition fait partie de notre Guide Essentiel : Machine learning : les clés pour contrôler les biais

Le machine learning (ML), traduit aussi en français par apprentissage automatique ou encore apprentissage statistique, est un sous-domaine de l’intelligence artificielle (IA) qui permet à des applications de prédire des résultats de plus en plus précis sans être explicitement programmées en ce sens. Les algorithmes de machine learning utilisent des données historiques en entrée pour prédire de nouvelles valeurs en sortie. Une autre expression, « apprentissage machine », est une formule que l’on trouve aussi, bien qu’étant une traduction mot à mot.

Les moteurs de recommandations font partie des cas d’utilisation courants du machine learning, ainsi que le dépistage de fraudes, les filtres antispam, la détection de logiciels malveillants, certains éléments de l’automatisation des processus métiers (BPA, Business Process Automation) ou encore la maintenance prédictive.

Entraînement du machine learning

Dans sa forme classique, le machine learning se définit souvent par la façon dont un algorithme apprend à formuler des prédictions de plus en plus précises. Il existe deux approches élémentaires : l’apprentissage supervisé et l’apprentissage non supervisé. L’on peut également mentionner l’apprentissage semi-supervisé, qui permet de compléter l’apprentissage supervisé en analysant des données non annotées. Le type d’algorithme qu’un data scientist choisit d’utiliser dépend du type de données qu’il souhaite prédire.

Fonctionnement du machine learning supervisé

Dans l’approche supervisée du machine learning, le data scientist doit entraîner l’algorithme avec à la fois les données en entrée étiquetées et les données en sortie attendues. Les algorithmes d’apprentissage supervisé conviennent aux tâches suivantes :

  • Classification binaire - division des données en deux catégories.
  • Classification multiclasse - choix entre plus de deux types de réponses.
  • Modélisation de régression - prédiction de valeurs continues.
  • Apprentissage ensembliste - combinaison des prédictions de plusieurs modèles de machine learning pour produire une prédiction précise.

Fonctionnement du machine learning non supervisé

Les algorithmes de ML non supervisé n’ont pas besoin de données étiquetées. Ils passent au crible les données sélectionnées par une équipe de data science pour rechercher des schémas pouvant servir à regrouper des points de données en sous-ensembles. Les algorithmes d’apprentissage non supervisé conviennent aux tâches suivantes :

  • Regroupement ou « clustering » -- division de l’ensemble de données en groupes en fonction de la similarité.
  • Détection d’anomalies -- identification de points de données inhabituels dans un ensemble de données.
  • Recherche d’associations -- identification dans un ensemble de données de séries d’éléments souvent associées.
  • Réduction de la dimensionnalité -- réduction du nombre de variables dans un ensemble de données.

Fonctionnement de l’apprentissage par renforcement

Pour guider l’apprentissage automatique non supervisé, certains acteurs utilisent une troisième méthode : l’apprentissage par renforcement. Elle consiste à introduire un système de récompenses et de punitions afin d’induire le comportement et les décisions (ou actions) d’un algorithme (ou agent) dans un environnement donné, réel ou virtuel. Cette technique, moins répandue parce que bien plus complexe, est utilisée dans les domaines de la recherche opérationnelle, de la théorie des jeux, de la théorie du contrôle, de l’optimisation fondée sur la simulation ou encore dans les statistiques génétiques. Ici, il n’y a pas de jeux de données en entrée. L’algorithme construit son data set en explorant et en exploitant l’environnement.

Utilisations du machine learning

Aujourd’hui, le machine learning est utilisé dans de nombreuses applications. L’un des exemples les plus connus est sans doute le moteur de recommandations qui alimente le fil d’actualité de Facebook.

Facebook utilise en effet le machine learning pour personnaliser le flux de chaque abonné. Ainsi, si un abonné lit fréquemment les publications d’un groupe particulier, le moteur de recommandations commencera à afficher un plus grand nombre d’activités de ce groupe au début du fil d’actualité.

En coulisse, le moteur tente de renforcer les schémas connus dans le comportement en ligne de l’abonné. Si l’abonné change ses habitudes et ne lit plus les publications du groupe en question dans les semaines qui suivent, le fil d’actualité sera adapté en conséquence.

Outre les moteurs de recommandation, le machine learning a d’autres applications, notamment :

Gestion de la relation client – Les logiciels de GRC peuvent utiliser des modèles de machine learning pour analyser les e-mails et inviter les commerciaux à répondre en priorité aux messages les plus importants. Les systèmes les plus évolués peuvent même recommander des réponses susceptibles d’avoir un impact.

Informatique décisionnelle – Les fournisseurs de solutions BI et d’analytique utilisent le machine learning dans leurs logiciels pour identifier les points de données, schémas de points de données et anomalies potentiellement importants.

Systèmes informatiques de ressources humaines – Les SIRH peuvent utiliser des modèles de machine learning pour passer des candidatures au peigne fin et identifier les meilleurs candidats à un poste vacant.

Assistants virtuels – Les assistants intelligents combinent généralement des modèles de machine learning supervisé et non supervisé pour interpréter le langage naturel et fournir du contexte.

Choix du modèle approprié de machine learning

Le choix d’un modèle de machine learning approprié pour résoudre un problème peut prendre du temps si une approche stratégique n’est pas adoptée.

Étape 1 : Aligner le problème avec les entrées de données potentielles qui doivent être envisagées pour la solution. Cette étape exige l’aide de data scientists et d’experts qui connaissent bien le problème.

Étape 2 : Collecter les données, les nettoyer (suppression des valeurs manquantes, aberrantes et des doublons), les formater, et les étiqueter si nécessaire. Cette étape est généralement confiée aux data scientists, avec l’aide de spécialistes chargés de préparer les données, les « data wranglers ».

Étape 3 : Réaliser l’ingénierie des caractéristiques (Feature Engineering). Cette deuxième phase de la préparation de données consiste à observer via un outil de visualisation les attributs (features) communs aux données et les liens entre les colonnes d’une table. Il s’agit également d’établir si oui ou non il y a des dépendances entre les features et entre les features et les étiquettes (labels). Ces facteurs influencent les résultats de l’algorithme.

Étape 4 : Choisir quels algorithmes utiliser et les tester pour comparer leurs performances. Cette étape est généralement effectuée par les data scientists. Par exemple avec un apprentissage supervisé, cette étape réclame de diviser son jeu de données de départ en trois ensembles. Les données d’entraînement servent à ajuster les modèles, et les données de validation permettent d’estimer les erreurs de prédiction, et l’ensemble de test permet d’évaluer les performances du modèle sur des données inconnues du modèle.

Étape 5 : Continuer à affiner les résultats jusqu’à obtenir un niveau de précision acceptable. Cette étape incombe généralement aux data scientists, avec le retour d’experts qui connaissent bien le problème.

Importance d’un machine learning interprétable par des humains

Lorsqu’un modèle de ML est complexe, il peut s’avérer difficile d’en expliquer le fonctionnement. Dans certains secteurs spécialisés, les data scientists doivent utiliser des modèles de machine learning simples, car il est important pour l’entreprise d’expliquer en détail comment chaque décision a été prise. C’est notamment le cas dans les secteurs soumis à de fortes exigences de conformité, tels que la banque et l’assurance. Dans ces secteurs hautement régulés, les équipes de data science ont souvent l’obligation de fournir une documentation détaillée sur les modèles déployés.

Les modèles complexes peuvent donner des prédictions précises, mais il peut être difficile d’expliquer à une personne non initiée comment un résultat a été obtenu.

L’avenir du machine learning

Si les algorithmes de machine learning existent depuis plusieurs dizaines d’années, ils sont aujourd’hui de plus en plus répandus, dans un contexte de recours croissant à l’intelligence artificielle (IA). Les applications d’IA les plus évoluées, en particulier, font appel à des modèles de deep learning.

Les plateformes de machine learning font partie des domaines les plus concurrentiels de la technologie d’entreprise : la plupart des grands fournisseurs, Amazon, Google, Microsoft, IBM et autres, rivalisent pour convaincre les clients de s’abonner à des services couvrant l’ensemble des activités de machine learning, dont la collecte, la préparation et la classification des données, l’élaboration et l’entraînement de modèles, ainsi que le déploiement d’applications.

Cette compétition entre plateformes devrait encore s’intensifier alors que le machine learning prend de plus en plus d’importance pour les activités métier et que l’IA se démocratise en entreprise.

La recherche continue en matière de deep learning et d’IA s’oriente de plus en plus vers le développement d’applications plus générales. Aujourd’hui, les modèles d’IA exigent un entraînement poussé pour produire un algorithme hautement optimisé en vue de réaliser une tâche. Mais certains chercheurs étudient des moyens d’assouplir les modèles et recherchent des techniques qui permettront à une machine d’appliquer le contexte appris dans le cadre d’une tâche à des tâches futures.

Histoire du machine learning

1642 - Blaise Pascal invente une machine mécanique capable d’effectuer des opérations de base (addition, soustraction, multiplication et division).

1679 - Gottfried Wilhelm Leibniz imagine le système du code binaire.

1834 - Charles Babbage conçoit l’idée d’un dispositif universel générique qui pourrait être programmé à l’aide de cartes perforées.

1842 - Ada Lovelace décrit une séquence d’opérations pour la résolution de problèmes mathématiques à l’aide de la machine analytique à cartes perforées de Charles Babbage et devient la première programmeuse.

1847 - George Boole crée la logique booléenne, une forme d’algèbre dans laquelle toutes les valeurs peuvent être réduites aux valeurs binaires vrai ou faux.

1936 - Le logicien et cryptanalyste Alan Turing propose une « machine universelle » capable de déchiffrer et d’exécuter une série d’instructions. La démonstration qu’il publie à ce sujet est considérée comme la base de l’informatique.

1952 - Arthur Samuel crée un programme permettant à un ordinateur IBM de s’améliorer au jeu de dames au fil des parties.

1959 - MADALINE devient le premier réseau de neurones artificiel appliqué à une problématique concrète : éliminer les échos des lignes téléphoniques.

1985 - Le réseau de neurones artificiel de Terry Sejnowski et Charles Rosenberg apprend de façon autonome à prononcer correctement 20 000 mots en une semaine.

1997 - Le programme Deep Blue d’IBM bat le champion d’échecs Garry Kasparov.

1999 - Un prototype de poste de travail intelligent de CAO analyse 22 000 mammographies et détecte des cancers avec une précision de 52 % supérieure à celle des radiologues.

2006 - L’informaticien Geoffrey Hinton invente le terme de deep learning (apprentissage profond) pour décrire la recherche par des réseaux de neurones.

2012 - Un réseau de neurones non supervisé créé par Google apprend à reconnaître des chats dans des vidéos YouTube, avec une précision de 74,8 %.

2014 - Un chatbot réussit le test de Turing en réussissant à convaincre 33 % des évaluateurs humains qu’il était un adolescent ukrainien du nom d’Eugène Goostman.

2014 - AlphaGo de Google bat le champion humain de Go, le jeu de plateau le plus difficile au monde.

2016 - LipNet, le système d’intelligence artificielle de DeepMind, identifie des mots en les lisant sur les lèvres dans des vidéos, avec une précision de 93,4 %.

2019 - Amazon contrôle 70 % du marché des assistants virtuels aux États-Unis.

Cette définition a été mise à jour en septembre 2020

Pour approfondir sur Intelligence Artificielle et Data Science

Close