Du Big Data à l’AI : de l’automatisation à l’autonomie du code

Lors des Oracle Digital Days, Isabelle Flory d’Intel a retracé l'évolution du traitement des données, qui aboutit à l’avènement du Machine Learning et de l’Intelligence Artificielle. Une mise en perspective qui éclaire l’intérêt de technologies qui se côtoient dans une certaine complexité.

La Business Intelligence est, historiquement, la partie de l’IT qui permet de traiter des données – le plus souvent structurées – pour les rendre intelligible. Le but de ces outils complexes, connectés à des bases de données (dont les fameux Datawarehouses), était de transformer la donnée en information (tableau de bord opérationnels), puis l’information en enseignements pour la direction (tableau de bords stratégiques).

Au commencement : le Big Data

Puis sont arrivées d’autres sources de données - qui se sont ajoutées aux traditionnels bases clients, livre de compte, enquêtes statistiques, factures fournisseurs, etc. A la différence de celles citées ci-avant, ces données non-structurées – ou semi-structurées – sont issues des réseaux sociaux ou des interactions non formelles avec les clients et partenaires (tweet sur une marque ou visite d’un site web par exemple).

« Elles sont souvent intéressantes et peuvent être croisées avec vos données d’entreprise. Cela a été l’arrivée de ce que l’on a appelé le Big Data », rappelle Isabelle Flory, Directrice des Ventes d’Intel pour l’Europe de l’Ouest.

Une des limites du Big Data est que « l’on travaillait sur des données antérieures ». L’idée a donc germé de développer des algorithmes pour tenter de comprendre les mécanismes qui ont pu déterminer ce qui est arrivée dans le passé.

Ces recherches de récurrences, de corrélations et de liens complexes de causes à effet ont posé les jalons de « l’apprentissage ». Autrement dit, ils ont été la première pierre angulaire du Machine Learning, plus évolué.

Puis vinrent prédictif, prescriptif…

L’étape suivante était toute désignée. « Si j’arrive à si bien modéliser l’apprentissage de ce qui s’est passé, est-ce que cela ne pourrait pas servir à prédire ce qui va se passer. Est-ce que ça marche si je me dis ‘’voyons voir si j’applique le même algorithme sur la suite », explique Isabelle Flory pour illustrer la naissance du prédictif.

« Pour vous donner un exemple, on a travaillé avec la AP-HP sur l’admission aux urgences. Il y a des congestions de ce service. […] On a cherché s’il y avait des séries temporelles qui permettent d’anticiper les pics et de mieux affecter le personnel soignant ».

L’analytique prédictif s’est appliqué aux humains, comme dans l’exemple de l’AP-HP, mais aussi aux machines. Ce qui était possible, dans l’industrie, grâce à l’avènement des capteurs et des objets connectés (l’IoT). « C’était très intéressant pour la maintenance prédictive ».

« De ce ‘’predictive analytics’’ on est passé au ‘’prescriptif’’ », se souvient la responsable d’Intel. Là encore, une suite logique pour l’IT qui a automatisé une partie de la préparation de la prise de décision. La solution dit qu’elle « pense » que telle ou telle option est la meilleure.

… et Event Stream Processing

Etape suivante, c’est la prise de décision elle-même – et non plus son étape préparatoire – qui est automatisée.

« Il y a des cas où je peux parfaitement attendre, quand ce n’est pas critique. Mais il y a des cas où il mieux vaut donner une règle au système. Dans une centrale nucléaire par exemple, si une alarme particulière se déclenche, il vaut mieux lui dire ‘’s’il cet évènement survient, tu arrêtes tout. On verra après, on prendra la décision plus tard’’ ».

Cette nouvelle phase est en train d’arriver. Baptisée Event Stream Processing, elle est issue principalement du monde industriel. « Mais on s’aperçoit que cela peut aussi avoir des implications dans d’autres domaines, comme le parcours client (NDR : une localisation déclenche une promotion) ».

Oui mais voilà, au cœur de la démarche de l’Event Stream Processing, il faut fixer « manuellement » une règle. Or qui évalue l’efficacité de cette règle ? Qui dit qu’elle est adaptée ? Ou encore adaptée ?

Là encore l’IT a permis – ou est en train de tenter – d’automatiser cette phase.

Machine Learning, Deep Learning : de l’automatisation à l’autonomie

Pour l’automatiser, des algorithmes d’apprentissage comparent les effets escomptés d’une décision avec ses effets réels. En retour, les algorithmes modifient la règle et procèdent ainsi par itérations successives. C’est le Machine Learning que l’on peut traduire en français par « apprentissage statistique ».

Un sous-ensemble du Machine Learning est le Deep Learning, qui tente, lui, de répondre à la question que résume Isabelle Flory : « que se passe-t-il si je ne connais pas la règle ? ».

Autrement dit, « est-ce que je ne peux pas déduire de toutes mes données, des algorithmes qui vont me permettre de créer une règle que je ne connaissais pas moi-même ». Des algorithmes qui conçoivent des algorithmes donc.

« C’est par exemple avec le Deep Learning que l’origine et le porteur du virus Zika ont été identifiés en processant les données dont on disposait sur l’épidémie », illustre Isabelle Flory.

Informatique Cognitive : l’IT copie la biologie

Toutes ces technologies reposent aujourd’hui sur des architectures, « des logiques et des mathématiques que nous connaissons bien », analyse-t-elle.

Mais une nouvelle tendance de l’IT est en train d’introduire une rupture, avec « une technologie qui s’inspire de la biologie ». Et en particulier les neurosciences.

Cette informatique « s’appuie sur des processus logiques qui sont très proches des processus du cerveau humain ». Et ce y compris dans les architectures physiques, « jusque dans le silicium qui est en train lui aussi d’imiter le fonctionnement de notre cerveau, avec des synapses et des systèmes très parallélisés ».

Cette imitation de la biologie est, pour Isabelle Flory, la branche de l’IT que l’on appelle désormais le « Cognitive Computing », branche la plus centrale – aujourd’hui – de l’Intelligence Artificielle.

Des technologies qui se côtoient

Cette explication historicisée pourrait donner l’impression que les technologies se succèdent et « que l’on passe de l’une à l’autre comme l’on gravit les marches d’un escalier », de la plus rudimentaire à la plus puissante.

Il n’en est rien. « Toutes ces technologies existent de manière simultanée », avertit Isabelle Flory. Car chacune répond à des problèmes différents : temps réel ou non, qui concernent des machines ou des humains, en rapport avec des logiques binaires ou des logiques plus floues et plus complexes.

Ce qui n’est pas sans induire « une certaine complexité » pour les DSI dans leurs choix et dans l’articulation de ces outils entre eux. D’autant plus que la catégorisation des solutions par type de problématiques n’est pas stricte ni figée.

« Il ne faudrait pas croire que le cognitif ne va servir qu’à l’analyse de la voix, à la traduction automatique ou à reconnaitre des images - des processus non structurées. Par exemple Boeing travaille depuis longtemps sur la maintenance prédictive mais ils ont réussi à économiser 100 millions de dollars supplémentaires en lui appliquant des logiques cognitives », illustre la responsable. Des logiques issues de Saffron, une start-up spécialiste de l’Intelligence Artificielle… rachetée par Intel en 2015. Ce qui montre bien, dans l’AI, l’implication de plus en plus étroite entre le silicium et le code.

Pour approfondir sur Outils décisionnels et analytiques

Close