Definition

Intelligence artificielle (IA)

Cette définition fait partie de notre Guide Essentiel : Les théories et pratiques essentielles pour déployer l’IA générative

Le terme intelligence artificielle, ou IA (AI en anglais pour Artificial Intelligence), désigne une famille de technologies et de méthodes mathématiques (des algorithmes) qui vise à permettre à des machines de simuler ou de s’inspirer des processus cognitifs des êtres humains pour réaliser des tâches.

Types d’intelligence artificielle

L’intelligence artificielle recouvre de nombreuses branches dont les plus connues sont aujourd’hui le machine learning (parfois appelé apprentissage automatique ou apprentissage statistique), le deep learning (apprentissage profond), et l’informatique cognitive (reconnaissance faciale, reconnaissance vocale, compréhension du langage naturel ou NLP, etc.).

Toutes ces méthodes ont en commun de tenter de reproduire l’intelligence humaine ou le cerveau humain, principalement en étant itérative.

Comment fonctionne une intelligence artificielle ?

La mise en place d’une IA commence par une phase d’entraînement (appelée également phase d’apprentissage).

Elle consiste à donner à l’algorithme des jeux de données qui lui permettent de se paramétrer (de pondérer ses variables). Par exemple, si l’on fait un tableau avec la taille des enfants d’une classe dans une colonne et leurs âges dans une seconde, l’IA tentera de trouver la fonction (linéaire ou un polynôme en fonction de l’algorithme choisi) qui permet au mieux de les représenter sur une courbe. Dans cet exemple on parle de régression linéaire ou polynomiale.

Comme l’IA compulse « seule » les données, on parle d’apprentissage automatique (en anglais Machine Learning). Mais il existe plusieurs types d’apprentissage : supervisé par un humain, non supervisé sans intervention humaine, semi-supervisé, ou encore l'apprentissage par renforcement (dans le cas où deux IA s’entraînent l’une l’autre avec un jeu de récompenses).

Un type plus évolué de machine learning est le deep learning. Ce type d’IA s’appuie sur un ensemble de paramètres, structurés par couches, baptisé réseau de neurones. La superposition de couches de paramètres donne d’ailleurs son nom à cette famille d’intelligence artificielle : l’apprentissage profond.

Le deep learning et les réseaux neuronaux sont utilisés aussi bien pour la reconnaissance d’image, que dans les voitures autonomes ou encore dans le logiciel de Google (AlphaGo) qui a battu le champion du monde de Go en 2016.

À noter qu’à la différence de son illustre prédécesseur chez IBM (Deep Blue) qui avait battu le champion du monde d’échecs Gary Kasparov en 1997, AlphaGo n’a pas été entraîné sur des parties déjà jouées, mais en lui donnant les règles du Go. Il a ensuite simulé lui-même les parties pour développer ses propres stratégies, parfois très étonnantes.

Une fois l’apprentissage terminé, l’IA peut chercher des corrélations et des schémas récurrents dans de nouveaux jeux de données, extrapoler des prévisions (l’âge d’un enfant en fonction de sa taille par exemple), ou encore générer des réponses ou des contenus (IA générative).

Il arrive que l’apprentissage automatique de l’IA aboutisse à des paramètres non explicables. On parle alors de phénomène de « boîte noire », ce qui pose un problème d’explicabilité des résultats et donc d’acceptabilité (y a-t-il des biais ? Pourquoi l’intelligence artificielle donne-t-elle ce résultat ?).

Les bases théoriques de l’intelligence artificielle étaient posées depuis de très nombreuses années. Les historiens considèrent d’ailleurs que le début de l’IA comme réelle discipline scientifique date de la Conférence de Dartmouth, en 1956. Mais c’est l’augmentation exponentielle de la puissance de calcul et l’arrivée des technologies Big Data qui ont donné un coup d’accélérateur depuis le début des années 2000 en augmentant les capacités d’entraînement des modèles et en permettant leurs déploiements à grande échelle.

Infographie de l'Histoire de l'Intelligence artificielle de 1950 à nos jours
Infographie de l'Histoire de l'Intelligence artificielle de 1950 à nos jours

Intelligence artificielle faible, Intelligence artificielle forte

Une façon de classer les systèmes d’IA est de faire une distinction entre les IA fortes et les IA faibles.

L’intelligence artificielle faible est un système d’IA conçu pour reproduire une tâche précise à laquelle il est formé en amont. Les assistants virtuels, les chatbots ou les assistants vocaux comme Siri ou Alexa en sont un exemple.

L’Intelligence artificielle forte (dite aussi intelligence artificielle générale) est un système d’IA doté de capacités cognitives humaines, qui, lorsqu’on lui présente une tâche inhabituelle, est capable de trouver une solution. Elle n’est pas (encore ?) une réalité.

Quelles sont les principales applications de l’Intelligence artificielle ?

Les usages de l’IA sont nombreux et très divers en fonction des secteurs d’activité.

Parmi les applications les plus communes, un programme d’IA aura pour but d’automatiser des tâches, de les optimiser et d’aider à la prise de décision.

En comptabilité, l’IA peut par exemple déterminer si une facture correspond à un bon de commande et à une rentrée dans un compte bancaire pour automatiser une réconciliation. Dans la distribution ou l’industrie, la reconnaissance visuelle (computing vision) permet de repérer en temps réel les articles posés dans un panier ou les pièces défectueuses sur une chaîne de production.

C’est également le cas, de manière beaucoup plus poussée, dans les véhicules autonomes qui utilisent une combinaison de vision assistée par ordinateur, de reconnaissance d’image et de deep learning, afin d’acquérir des aptitudes de pilotage d’un véhicule en évitant des obstacles sur son passage comme les piétons.

Une IA peut également optimiser des processus, par exemple en déterminant quelles sont les tournées les plus efficaces pour une flotte de livreur en fonction de la circulation, des colis, des véhicules présents, des lieux de livraisons, des disponibilités des chauffeurs, etc.

Plus largement, avec ses capacités prédictives – c’est-à-dire d’extrapoler un futur en fonction des schémas récurent et des corrélations qu’elle a trouvés dans les données passées – l’IA infusé dans un programme informatique (BI, ERP, CRM, etc.) est un outil d’aide à la décision.

Un pan de l’IA, la compréhension sémantique du langage naturel permet à des ordinateurs d’avoir un échange sous forme de conversation avec l’utilisateur. On retrouve ces technologies dans les chatbots, dans les moteurs de recherche, mais aussi dans des applications plus anciennes comme la détection des courriers indésirables qui analyse l’objet et le corps d’un e-mail pour le classer ou non en indésirable, ou l’analyse de sentiments dans un texte (à des fins marketing ou de support par exemple). Un chatbot peut être utilisé aussi bien en interne (trouver des informations comme des règles internes, le nombre de jours de congés restants, etc.) qu’externe (prise de rendez-vous d’un client, SAV, etc.)

Depuis l’arrivée des technologies un autre grand cas d’usage de l’IA est de créer des contenus.

Qui sont les principaux acteurs de l’IA ?

Tous les grands acteurs du cloud proposent aussi bien des offres pour héberger ses algorithmes et ses modèles, que leurs propres modèles clefs en main : Microsoft, Google, AWS, Oracle. Meta/Facebook est également très actif dans ce domaine.

De nombreux éditeurs proposent par ailleurs des outils pour gérer et déployer des algorithmes : bases de données, notebook, etc. On citera par exemple les Français Dataiku et Hugging Face, ou des sociétés comme Datarobot, Databricks, H2O ou Alteryx.

Quelles lois pour l’IA ?

Face au potentiel de transformation de l’IA – voire de révolution –, des craintes sont apparues (par exemple sur les armes léthales autonomes) et des voix se sont élevées pour réclamer un encadrement des usages.

En réponse à ces préoccupations, l’Europe est la première à avoir légiféré avec la promulgation en juin 2023 de l’AI Act. Cette loi réitère de grands principes – comme le respect de la vie privée, l’absence de discrimination, l’explicabilité des décisions – qui doivent s’appliquer également à l’IA.

L’AI Act interdit par exemple certains usages (comme l’utilisation de la reconnaissance d’image pour faire de la notation sociale comme en Chine) et en encadre strictement d’autres (surveillance de l’espace public à des fins de sécurité, IA appliquée à la santé, etc.).

Même si toutes les parties prenantes admettent qu’une telle loi était nécessaire, plusieurs acteurs ne cachent pas leurs craintes de voir les initiatives européennes d’IA entravée, laissant le champ libre (selon eux) à leurs concurrents américains et chinois.

Quelle différence entre l’intelligence artificielle et l’intelligence humaine ?

Les IA capables de raisonner comme des humains – et même d’avoir des sentiments comme HAL dans 2001 l’Odyssée de l’Espace de Stanley Kubrick – sont nombreuses dans la science-fiction (Asimov, Philip K. Dick). Mais ils n’existent pas dans la vraie vie.

Bien que controversé, il existe certes une méthode – le test de Turing élaboré par le mathématicien Alan Turing en 1950, pour déterminer si un ordinateur est réellement capable de penser comme un être humain. Et plusieurs chatbots ont réussi à le passer.

Mais, comme le note la Bibliothèque Publique d’Information du Centre Pompidou, cette réussite s’appuyait sur des stratégies de contournement et a amené au contraire à revoir la pertinence du test de Turing.

Cette définition a été mise à jour en septembre 2023

Pour approfondir sur Intelligence Artificielle et Data Science

Close