Quand Big Data et intelligence artificielle tueront l’emploi

L’automatisation pourrait détruire plusieurs millions d’emplois en France. Mais la convergence du Big Data et de l’intelligence artificielle est appelée à aller bien plus loin.

Ce samedi 25 octobre, le JDD s’est fait l’écho d’une étude réalisée par le cabinet de conseil Roland Berger anticipant rien moins que la destruction de plus de 3 millions d’emplois, en France, d’ici 2025, sous l’effet de l’automatisation : « les classes moyennes, qui exercent des professions intellectuelles dont une partie des tâches peut être automatisée sont particulièrement visées. » Pour Hakim El Karoui, associé au cabinet qui a piloté l’étude, « la robotisation pourrait être aux cols blancs ce que la mondialisation fût aux cols bleus. » Une surprise ? Par vraiment.

L’automatisation, fille naturelle de l’informatique

Dans le domaine de l’informatique, le phénomène est attendu pour de nombreux métiers. En novembre 2011, Dave Dobson, alors vice-président exécutif de CA Technologies, expliquait qu’après avoir permis d’industrialiser et d’optimiser de nombreuses activités, c’était à son tour d’en passer par là : « oui, l’IT s’industrialise lui-même. Nous sommes en train de diviser des briques en composants fonctionnels comme sur une chaîne d’assemblage. » Une tendance de fond selon lui, qui assurait observer une évolution du rôle du DSI pour « devenir gestionnaire de fournisseurs et de composants » pour services métiers. Avec des conséquences certaines pour l’emploi. Dave Dobson illustrait ainsi son propos par l’exemple d’une « des plus grandes institutions financières au monde » dont le DSI employait alors 22 000 personnes pour exploiter 17 centres de calcul, avec un budget annuel de 1,5 Md$ : d’ici à 2016, ce DSI prévoyait à l’époque « d’en avoir fini avec l’exploitation de l’infrastructure, de l’avoir externalisée, et de ne plus employer que 10 000 personnes dédiées à la gestion développement applicatif sur des plateformes Cloud et à la construction de services métiers. »

En janvier 2013, TK Kurien, Pdg de Wipro, ne tenait pas un discours différent : « ce que vous avez vu en termes de gains de productivité dans les activités manufacturières est en train d’arriver aux services. » Et Vijay Sivaram, directeur de recrutement chez Ikya Human Capital Solutions, prenait alors l’exemple du test logiciel, « traditionnellement réalisé manuellement » et qui « est passé aux processus automatisés ».

Big Data et intelligence artificielle

En septembre 2013, deux chercheurs de l’université d’Oxford ont publié des travaux allant dans la même direction. Selon ceux-ci, 47 % des emplois aux Etats-Unis sont potentiellement menacés, à termes, par l’informatisation. Plusieurs études avaient, précédemment, exploré les liens entre emploi en informatisation, notamment sous l’effet des progrès de l’intelligence artificielle. Mais sans quantifier le phénomène jusqu’ici…

Pour étayer leur propos, Carl Benedikt Frey et Michael A. Osborne relèvent qu’avec « la disponibilité du Big Data, un vaste éventail de tâches non-routinières deviennent informatisables. » Et de souligner que « les avancées technologiques récentes sont, en large partie, dues aux efforts [fournis] pour transformer des tâches non-routinières en problèmes bien définis. Définir de tels problèmes est aidé par l’apport de données pertinentes », structurées et non structurées, rassemblées sous le terme de Big Data. Et c’est là qu’intervient l’intelligence artificielle pour « rendre de nombreuses tâches informatisables ».

Dans le domaine de la sécurité informatique, de nombreux équipements modernes sont capables de tirer profit de capacités d’analyse – embarquées comme déportées dans le Cloud – pour automatiser la réaction aux menaces et aux vulnérabilités. Actuellement, une grande part des RSSI se refuse encore à exploiter ces capacités d’automatisation. La crainte de faux positifs, d’incidents de production, sûrement, mais aussi la volonté de garder le contrôle sur ce qui ne serait, sinon, qu’une boîte noire.

Sortir l’humain de la chaîne de décision

Mais les décideurs métiers ne seront-ils pas plus enclins à, d’abord, suivre les recommandations d’une machine intelligente nourrie de toutes sortes de données appréhendées comme pertinentes, et capable de produire les indicateurs justifiant ses suggestions ? Puis de la laisser progressivement prendre les décisions à leur place ? La pression du marché et celle des actionnaires laisse de moins en moins place à l’erreur, à l’intuition, privilégiant la rationalité rassurante d’indicateurs et autres tableaux de bord. De quoi encourager le recours rapidement croissant à des automates intelligents nourris au Big Data.

Utopique ? Pas pour quelqu’un comme IBM qui, avec Watson, avait déjà investi entre 900 M$ et 1,8 Md$ dans la recherche dans l’intelligence artificielle en 2011, lorsque celui-ci s’est montré capable de jouer à Jeopardy. Et ce n’est sans doute pas l’absence de perspectives commerciales qui a poussé le groupe à lancer une division Watson dotée de 1 Md$ en janvier dernier, puis à présenter, en septembre, un outil permettant justement aux entreprises de mettre à profit les capacités analytiques de Watson pour leurs besoins métiers. Pour découvrir des tendances, mais aussi pour obtenir des prévisions. Le tout pour « aider les entreprises à mieux prendre des décisions basées sur des faits », expliquait alors Eric Sall, vice-président d’IBM en charge de l’analytique.

Dès lors, il n’est pas surprenant que le patron de Tesla, Elon Musk, s’inquiète, devant les étudiants du célèbre MIT, de la « menace » que représente selon lui l’intelligence artificielle. Et d’espérer que « nous ne sommes pas seulement le bootloader biologique d’une superintelligence numérique. Malheureusement, c’est de plus en plus probable. »

Pour approfondir sur Big Data et Data lake

Close