Exnoi - stock.adobe.com

RSAC 2026 : les agents IA des utilisateurs finaux sont déjà là, mais invisibles

L’IA agentique a dominé la RSAC 2026, alors que les fournisseurs étaient confrontés à l’utilisation invisible de l’IA, aux outils « fantômes », aux agents utilisateurs finaux non sécurisés et à un regain d’intérêt pour les terminaux.

J’ai enfin eu le temps de souffler après une RSAC 2026 incroyablement chargée, d’autant plus que j’ai attrapé le rhume inévitable après avoir passé une semaine au contact de près de 40 000 personnes dans le Moscone Center et dans ses environs, à San Francisco. Au total, j’ai eu près de 30 rendez-vous avec des fournisseurs spécialisés dans des domaines tels que la sécurité des terminaux, la sécurité des e-mails, la gestion des terminaux, et bien d’autres encore. Ce qui m’a frappé, c’est le fil conducteur qui reliait tous ces rendez-vous : l’IA agentique.

Si vous avez déjà assisté à la conférence RSAC (ou à tout autre événement indépendant du secteur), vous savez sans doute qu’il y a chaque année un thème officieux. Il y a quelques années, c’était simplement « l’IA », et tous les fournisseurs se bousculaient pour intégrer un chatbot dans la démonstration de leur stand. L’année dernière, c’était « l’agentique », mais d’une manière assez vague qui ne correspondait pas vraiment à ce que faisaient les entreprises à l’époque. Cette année, c’était à nouveau l’agentique, mais avec un peu plus de substance.

Je me suis rendu à cet événement dans l’espoir de découvrir ce que font les entreprises concernant les agents IA mis à la disposition des utilisateurs finaux. Je n’ai pas été déçu. Voici quelques-unes des discussions que j’ai eues tout au long du salon.

Personne ne sait ce que leurs employés utilisent réellement

S’il y a bien un thème qui est revenu sans cesse, c’est celui de la visibilité. On ne peut pas sécuriser ce qu’on ne voit pas. Ou, pour le dire autrement, les entreprises ignorent ce qu’elles ignorent. Trend AI (anciennement Trend Micro) a structuré l’ensemble de son approche de sécurité autour de quatre piliers, dont le premier est la visibilité. LastPass a développé une fonctionnalité de découverte d’applications SaaS à l’aide de son extension de navigateur, car les clients ignoraient véritablement l’étendue des ressources auxquelles leurs employés avaient accès. Eset intègre l’observabilité de l’IA dans son XDR afin que les administrateurs disposent d’une vue unique sur les outils d’IA utilisés dans l’ensemble de l’environnement.

Le problème, c’est qu’il ne s’agit plus seulement de ChatGPT ou d’autres chatbots. L’IA est désormais intégrée aux applications de productivité, et on ne peut pas simplement les bloquer d’un simple clic. Prenons l’exemple de Canva. Si votre entreprise autorise Canva, vous autorisez l’IA, car Canva s’appuie sur plusieurs modèles de base et dispose d’une couche de données d’entreprise en pleine expansion qui alimente l’ensemble de ces modèles. Il en va de même pour Microsoft Copilot, Google Workspace avec Gemini, les intégrations d’Adobe et des dizaines d’autres applications qui ont discrètement ajouté des capacités d’IA sans en faire grand cas. Bloquer ChatGPT.com est une réponse de 2024 à un problème qui a déjà dépassé ce stade.

Mes propres recherches corroborent ces conclusions. La dernière fois que j’ai interrogé à la fois des décideurs informatiques et des travailleurs du savoir sur l’utilisation de l’IA, 72 % des responsables informatiques ont déclaré avoir mis en place une politique en matière d’IA. Mais seuls 44 % des utilisateurs finaux ont indiqué en avoir pris connaissance. Et 53 % des utilisateurs finaux ont admis utiliser des outils d’IA non autorisés. Le fossé entre ce que le service informatique pense qu’il se passe et ce qui se passe réellement est bien réel, et il ne fera que se creuser à mesure que l’IA s’intégrera dans les outils que les gens utilisent déjà au quotidien.

Bloquer l’IA ne fait que créer davantage d’IA clandestine

Lorsqu’une entreprise bloque l’accès aux outils d’IA et les remplace par un outil interne (souvent moins performant), les employés trouvent des solutions de contournement : appareils personnels, captures d’écran de feuilles de calcul téléchargées via des applications mobiles, copier-coller dans des outils que le filtre réseau ne détecte pas, etc. Et toutes ces pratiques sont plus difficiles à surveiller que le problème initial.

J’ai entendu tous les fournisseurs décrire cette même dynamique. La formulation d’Island m’a particulièrement marquée. L’entreprise souhaite que le service informatique soit en mesure de « dire oui » plutôt que de « dire non », en mettant en place des garde-fous autour de l’utilisation de l’IA plutôt que de la bloquer purement et simplement, afin que les données restent protégées sans nuire à la productivité. LastPass a avancé un argument similaire : offrez aux employés des outils fiables et approuvés, dotés de véritables contrôles de sécurité, et ils les utiliseront. Si vous ne le faites pas, ils trouveront des moyens de contourner tout ce que vous avez mis en place. Tout comme nous l’avons appris avec le BYOD et les appareils mobiles, l’approche consistant à tout bloquer ne fonctionne pas. Il est temps d’apprendre à vivre avec eux.

Mon analogie préférée : prétendre avoir résolu le problème de DLP en bloquant les IA tierces et/ou en déployant un outil interne, c’est comme dire qu’on a réglé son problème de cafards en allumant la lumière. Les cafards se sont peut-être dispersés, mais ils sont toujours là. C’est juste qu’on ne les voit plus.

Nous nous dirigeons rapidement vers une situation où le service informatique (y compris les équipes de sécurité) freine à la fois l’activité de l’entreprise et les utilisateurs finaux. Je ne dis pas que le service informatique est mauvais. Je dis simplement qu’il vaudrait mieux consacrer nos efforts à apprendre à vivre dans ce nouveau monde plutôt que d’essayer de jouer au jeu du chat et de la souris.

Les agents côté utilisateur sont bien là, mais personne ne sait comment les sécuriser

Au milieu de toutes ces discussions sur les « agents » qui animaient le hall d’exposition, quelques entreprises ont retenu mon attention, car elles semblent avoir compris la révolution imminente que représentent les agents pour les travailleurs du savoir. Que se passe-t-il lorsqu’un utilisateur final exécute un agent dont chaque comportement ressemble en tous points à celui de l’utilisateur final ? Comment savoir s’il s’agit de l’agent ou de l’utilisateur ? Comment savoir si les scripts ou les applications qu’il écrit sont sécurisés et fiables ? Compte tenu des gains de productivité et de l’impact sur l’entreprise, comment le service informatique peut-il autoriser cela tout en mettant en place des garde-fous et en garantissant la visibilité ?

Trend AI a raconté l’histoire d’un client dont le PDG avait ordonné le déploiement de 200 agents IA. La réponse du responsable de la sécurité informatique a été en substance : « je sais comment gérer les ransomwares. Mais je n’ai aucune idée de la manière de gérer une situation où un agent IA serait compromis ». Cela résumait parfaitement la situation.

La solution, du moins en partie, reposera sur l’identité et des contrôles granulaires pour les agents autonomes. Les gestionnaires de mots de passe comme LastPass et 1Password tentent de résoudre ce problème, mais comment permettre à un agent autonome d’utiliser ces identifiants en votre nom ? Si un humain intervient pour approuver l’accès en temps réel, le problème peut être résolu. Mais dans le cas d’une autonomie totale, où l’agent doit réserver un vol ou accéder à une application SaaS pendant que vous allez chercher un café, il n’y a pas encore de bonnes réponses. Personne dans le domaine de la gestion des mots de passe n’a résolu ce problème, et il n’existe aucune norme à ce sujet.

Il y a ensuite les serveurs MCP (Model Context Protocol), une autre facette de l’IA agentique qui se trouve déjà dans une situation de « Far West ». ESET a analysé plus de 60 000 compétences MCP et a qualifié le paysage de la sécurité de « véritable chaos ». D’autres fournisseurs en sont également conscients. Par exemple, Palo Alto a récemment annoncé son intention d’acquérir Koi Security, précisément dans ce but.

Pour finir en beauté, j’ai discuté avec des entreprises spécialisées dans la sécurité des e-mails et j’ai appris que les agents côté utilisateur contournent en réalité les outils de sécurité des e-mails basés sur des API et intervenant après la livraison, car ils sont capables de traiter les e-mails entrants instantanément, avant même que l’outil de sécurité ne puisse agir. Cela ouvre la voie à des exploits ciblant spécifiquement l’IA et pourrait potentiellement redéfinir ce à quoi devrait ressembler une plateforme complète de sécurité des e-mails. (Par exemple, cela rend-il les passerelles de messagerie sécurisées plus importantes ?)

L’attention se reporte à nouveau sur le terminal

Un autre aspect que je souhaite analyser dans le cadre de mes recherches cette année est un phénomène que j’ai régulièrement observé lors des discussions sur les agents lors de la RSAC : un regain d’intérêt apparent pour le terminal. Depuis des années, et malgré mes protestations, l’importance de l’ordinateur personnel a été reléguée au second plan dans un monde dominé par les applications web. Les PC basés sur l’IA lui ont redonné un peu de vie, mais le cas d’utilisation décisif ne s’est jamais vraiment concrétisé. Les agents destinés aux utilisateurs finaux et l’économie des jetons pourraient bien être ce qui finira par y parvenir.

Ces deux tendances vont dans le même sens. Les agents qui résistent à des charges de travail réelles ne sont pas de simples constructions cloud. Ils combinent des données locales, des scripts et de petits modèles sur l’appareil avec une inférence de pointe dans le cloud (à la manière de « seconds cerveaux »), ce qui fait du terminal un véritable acteur plutôt qu’un simple terminal interchangeable. Et à mesure que les travailleurs du savoir commencent à consommer des jetons à des taux propres aux agents, la facture du cloud devient un sujet de discussion budgétaire, ce qui rend le silicium inutilisé, qui trône déjà sur les bureaux, bien plus intéressant. OpenClaw et NemoClaw de Nvidia sont de premiers exemples à surveiller, et le PDG de Nvidia, Jensen Huang, a défendu le même argument du côté de l’offre lors de la GTC 2026.

Et bien plus encore

D’autres thèmes ont également été abordés. La sécurité des navigateurs est soudainement au centre de l’attention depuis que CrowdStrike et Zscaler ont respectivement racheté Seraphic et SquareX, tandis qu’Island s’impose désormais comme une plateforme d’espace de travail, et non plus seulement comme un navigateur d’entreprise.

La gestion des risques liés aux facteurs humains occupe une place de plus en plus centrale dans les préoccupations des entreprises spécialisées dans la sécurité des e-mails et de la messagerie. KnowBe4, Ironscales, Proofpoint, Abnormal et Mimecast proposaient toutes des solutions en matière de visibilité, de sensibilisation et de formation sur les comportements des utilisateurs finaux.

Il faut également noter la convergence générale entre la gestion des terminaux et la sécurité, qui favorise la gestion autonome des terminaux et permet d’harmoniser les équipes, les outils et les processus chargés de gérer les utilisateurs finaux ainsi que leurs nombreux appareils, systèmes d’exploitation et applications.

Le RSAC 2026 a été un salon formidable pour moi. L’informatique grand public et l’espace de travail numérique n’ont jamais été aussi passionnants.

Gabe Knuth est l’analyste principal chargé du secteur de l’informatique grand public chez Enterprise Strategy Group, qui fait désormais partie d’Omdia. Ses analystes entretiennent des relations commerciales avec des fournisseurs de technologies.

Pour approfondir sur Gestion d’identités (IGA, PAM, Bastion, PASM, PEDM)