peshkova - Fotolia
Les grandes tendances technologiques de 2026 selon Gartner
Les analystes de Gartner dévoilent les principales tendances technologiques que les DSI doivent connaître pour 2026, notamment le développement de l’IA, la cybersécurité et le rapatriement des données. D'autres éléments de la liste sont plus prospectifs
Comme chaque année, les analystes de Gartner ressortent la boule de cristal. Ils ont présenté 10 tendances technologiques essentielles censées transformer les opérations des entreprises d’ici 2026. Sans surprise, l’IA générative envahit cette liste. Et d’aucuns pourraient penser que Gartner mêle fantasme et réalité.
L’innovation, la tête dans le guidon
Lors du symposium Gartner IT à Orlando, en Floride, les analystes Tori Paulman et Gene Alvarez ont souligné que le rythme de l’innovation était en train de changer fondamentalement. « La prochaine vague d’innovation n’aura pas lieu l’année prochaine, elle a lieu ici, cette semaine », prétendent-ils. Pour rappel, l’intelligence artificielle telle qu’elle est définie aujourd’hui aura 70 ans l’année prochaine.
Les 10 principales tendances technologiques pour 2026 sont les suivantes :
- Les plateformes de supercalcul IA.
- Les systèmes multiagents.
- Les modèles de langage spécifiques à un domaine.
- Les plateformes de sécurité IA.
- Les plateformes de développement « IA natives ».
- L’informatique confidentielle.
- L’IA physique (robotique+IA).
- La cybersécurité préventive.
- La « provenance numérique ».
- La « géopatriation ».
L’émergence des pizzAI teams
Selon Tori Paulman et Gene Alvarez, la première grande tendance concerne les plateformes de développement « IA native ». Il s’agit de démultiplier les capacités de livraison des petites équipes de développement (souvent dénommées pizza teams).
Chaque développeur travaillera avec un assistant IA pour former une équipe, explique Gene Alvarez. Si une entité compte 10 développeurs travaillant sur un même projet, ceux-ci pourraient être répartis en cinq équipes de deux développeurs associés à l’IA. Cela permettrait de livrer cinq projets au lieu d’un seul.
« Cela permettra également de résoudre le problème de productivité des développeurs », avance-t-il. « Cela contribuera à intégrer des citizen developers ou des métiers dans les équipes de développement, afin de créer des applications spécifiques à une organisation ».
Rappelons que cette division en petites équipes de développement pousse à l’isolement. Et, sans vision d’ensemble, les projets se chevauchent inutilement.
Symposium oblige, l’analyste tombe là dans le piège de la simplification à outrance. Dans son communiqué de presse, Gartner précise surtout que les entreprises pourront faire plus avec le même nombre de développeurs. Et que cette tendance affectera 80 % des entreprises d’ici à 2030.
Super calcul = super science ?
Qu’importe. Les plateformes de supercalcul IA fourniront à ces équipes mi-humaine, mi-IA les ressources dont elles ont besoin pour innover, d’après Tori Paulman. Les plateformes de supercalcul fonctionneront comme « un système GPS pour le développement, combinant des accélérateurs (CPU, GPU, ASICS, etc.), une orchestration et une infrastructure à haut débit pour aider les développeurs à développer en temps réel ».
Traduisons-la : les plateformes HPC, plus puissantes, plus accessibles que par le passé et désormais livrées avec des logiciels (N.D.L.R : voir Benchling), devraient permettre aux équipes de data science de gagner un temps considérable lors des phases de R&D.
Elles seront utiles aux entreprises de biotechnologie pour modéliser des vaccins et des thérapies. Un travail qu’elles pourraient effectuer en quelques semaines au lieu de plusieurs années (si elles ont beaucoup de chance). Aux sociétés de services financiers pour modéliser des risques. Aux énergéticiens pour cartographier les conditions météorologiques extrêmes afin d’optimiser leurs réseaux (ce qu’ils font déjà).
À condition que les géants de l’IA générative laissent suffisamment de ressources de calcul disponibles pour ce faire, oublient de préciser les analystes.
Plus petit, c’est mieux
Il a fort à parier que ces précieux GPU seront largement mobilisés par la prochaine tendance. Les systèmes multiagents. Ceux-là sont, selon Gene Alvarez, comparables aux mécaniciens d’une équipe de formule 1. Ses membres doivent travailler de concert, mais chacun se charge d’une tâche spécifique lorsque la voiture entre dans les stands.
L’avantage de ces systèmes multiagents ? Ils peuvent réduire le risque d’hallucinations induites par l’IA, tout en prenant en charge un flux de travail complexe, souligne l’analyste. Il en résulte des agents dynamiques qui s’appellent les uns les autres selon les besoins pour effectuer différentes tâches. Un concept qui a émergé il y a trois ans.
Mais les entreprises ne doivent pas avoir les yeux plus gros que le ventre. Elles devraient commencer par créer des petits agents spécifiques. Les analystes semblent là avoir suffisamment de recul.
« Ne créez pas de grands agents monolithiques, car ils deviennent trop difficiles à gérer et peuvent entraîner des problèmes potentiels tels que des hallucinations », recommande Gene Alvarez. « Il ne faut pas non plus considérer ces systèmes multiagents comme des êtres humains ; ils complètent et travaillent aux côtés d’eux. »
Les modèles de langage spécifiques à un domaine (également appelés small language model) constituent une tendance émergente qui permettra de tirer davantage parti des agents IA, poursuit Tori Paulman.
Les LLM ont « englouti » l’ensemble des connaissances disponibles sur le Web. En revanche, ils en savent très peu sur les processus des entreprises. Un SLM entraîné à bon escient pourrait combler cette lacune.
« Les organisations peuvent passer moins de temps à rechercher et obtenir de meilleurs résultats », assure Tori Paulman. « Les DSI sont assis sur une mine d’or et vous avez la possibilité de créer des modèles linguistiques spécifiques à un domaine et de les transformer en service numérique ». Big Data Repetita ?
Non. Les entreprises devront faire preuve d’une transparence totale sur ce que le modèle sait et ne sait pas. Elles auront besoin d’ingénieurs contextuels pour alimenter en permanence le modèle avec les sources les plus appropriées et les plus récentes, ajoute-t-elle. Un discours sensé. Les analystes de Gartner oublient toutefois de mentionner que les fournisseurs de LLM souhaitent en ce moment même rendre le service d’entraînement aux entreprises. Ce qui posera éventuellement des questions financières et de propriétés intellectuelles.
La croissance de « l’IA physique » (le plan B de Jensen Huang)
Quant à l’IA physique, elle existerait depuis longtemps. Et Gene Alvarez de citer… les aspirateurs Roomba. Peu importe, la pertinence de l’exemple, la tendance s’accélère, affirme-t-il.
Ces systèmes robotisés alimentés à l’IA doivent relever les défis pour se déplacer dans le monde physique. Ils doivent apprendre à les surmonter. Par exemple, un drone chargé d’élaguer les branches d’arbres doit faire la distinction entre une branche et une ligne électrique. Sinon c’est la catastrophe assurée.
« Ils doivent faire face à l’imprévisibilité et apprendre de leurs actions. Tester ce que vous devez faire dans le monde physique nécessite ce processus d’apprentissage », explique-t-il.
Oui, les vidéos des laboratoires de robotique chinois sont impressionnantes. Oui, des entreprises comme Amazon souhaitent robotiser davantage leurs entrepôts. Mais il faut encore que les géants de la Tech, dont Nvidia et Meta, peaufinent leurs modèles monde. Et que les taxis autonomes Waymo roulant dans les rues de San Francisco ne s’arrêtent plus après trois coups de klaxon. Les analystes sont évidemment plus prudents dans leurs rapports écrits.
Minority Report à la sauce cyber
Place à la cybersécurité préventive, l’une des grandes tendances de 2026, selon Gartner. Elle doit aider les entreprises à protéger leurs actifs numériques dans un monde en mutation rapide, lance Tori Paulman.
Mais qu’est-ce que la cybersécurité préventive ? Ici, les algorithmes ne sont plus seulement utilisés pour détecter des menaces connues, mais pour prévoir les impacts sur les périmètres de sécurité, dixit les analystes de Gartner.
Les acteurs malveillants utilisent déjà l’IA pour attaquer les SI. La cybersécurité préventive utilise ce même pouvoir contre eux, illustre Tori Paulman. Elle pourrait même servir à créer des leurres.
Il s’agit de l’émergence progressive de système de protection autonome, capable de s’adapter aux menaces. Là encore, les modèles de langage spécifiques au domaine et l’IA agentique auront leur rôle à jouer. Jusqu’alors, la prévention des menaces renvoyait à la préparation en cas d’attaque et au travail des laboratoires de recherche en IA. Ceux-là testent les systèmes et sondent le Dark Web à la recherche de nouvelles menaces.
« Cela changera notre façon de travailler avec la sécurité », avance-t-elle. « La cybersécurité deviendra la norme dans tous les projets que vous menez à chaque étape ».
Les contours d’un tel dispositif semblent peu clairs. D’autant que les attaquants ne manquent pas d’imagination.
La traçabilité numérique amenée à s’imposer
Le concept de provenance numérique semble plus intéressant. Et déjà d’actualité. En clair, il s’agit de vérifier et d’estampiller systématiquement les contenus créés dans les entreprises.
C’est important, car les organisations dépendent de plus en plus de fournisseurs tiers. Et elles ont besoin de savoir que les données et les applications qu’elles utilisent sont authentiques.
« Les pirates informatiques peuvent utiliser l’IA générative pour créer de fausses applications RH, de faux fichiers multimédias, de fausses données et les transmettre à votre organisation », souligne Gene Alvarez. « Vous devez vous assurer que vous pouvez faire confiance à toutes vos données et que vous en êtes responsable. »
En réalité, ils n’ont pas besoin de la genAI. Les attaques menées par le groupe ShinyHunters cet été tendent à prouver que les hackers sont capables de détourner des applications légitimes. Puis, de convaincre les métiers en… les appelant, tout simplement.
Dans son communiqué de presse, Gartner mentionne les SBoM, le marquage numérique, les signatures de code et de données comme le socle de cette tendance.
Le contexte géopolitique provoquera le rapatriement des charges de travail en EMEA
Enfin, 2026 sera l’année de la « géopatriation ». Ce néologisme désigne le transfert intentionnel d’applications et de données vers des alternatives locales ou souveraines. Il s’agit de faire face à des turbulences géopolitiques croissantes, note Tori Paulman.
Les entreprises disposeront d’une multitude d’options mondiales et locales leur permettant de traiter des questions telles que la réglementation, la conformité et la résilience des données, envisage-t-elle. Les clouds souverains offrent la possibilité de disposer d’un refuge sûr où les applications sont protégées, et à mesure que de plus en plus d’hyperscalers entreront sur le marché, les clouds et les applications deviendront plus viables économiquement, croit-elle. Forrester prévient pourtant que certaines de ces solutions ne sont pas vraiment souveraines.
« La géopatriation consiste à choisir où réside votre IA et qui la protège », affirme Tori Paulman. « Alors que le monde continue de basculer, il est logique de rassembler vos actifs. »
Et Gartner de prédire que 75 % des entreprises de la région EMEA rapatrieront leurs charges de travail « au sein de solutions qui réduisent les risques géopolitiques ».
