
Kiattisak - stock.adobe.com
Proofpoint Protect 2025 : entre promesse d’IA et conscience du risque
Durant sa grand-messe dédiée à la cybersécurité, l’éditeur a dévoilé un espace où l’intelligence artificielle n’est plus un horizon, mais une réalité à sécuriser. L’éditeur esquisse un futur où humains et agents IA partageront le même espace de travail – et les mêmes vulnérabilités.
Fin septembre, Proofpoint organisait sa grand-messe annuelle, Protect. Évacuons d’entrée les surprises : c’est bien d’IA qu’il s’agissait. Comme tout le monde ? Pas tout à fait.
Sumit Dhawan, le CEO arrivé il y a deux ans en provenance de VMware, dresse un tableau mitigé de la perception autour de l’IA : « certains disent que cela va tuer le genre humain. D’autres affirment que c’est inutile. La vérité est sans doute entre les deux ». Et de citer une étude d’un chercheur de Columbia selon laquelle il s’agit d’une évolution normale, certes un changement de paradigme, mais une évolution classique sur la manière dont l’espace de travail se forme, comme d’autres évolutions précédemment.
Derrière cette posture d’équilibriste, Proofpoint affirme une conviction : l’avenir de la cybersécurité passe par la fusion du monde humain et du monde agentique. La conférence a ainsi été structurée autour d’un double message : la sécurité centrée sur l’humain, qui a fait la réputation de la marque ; et la sécurité de l’espace de travail agentique, où IA, copilotes et assistants autonomes manipulent les mêmes données que leurs créateurs humains.
De la cybersécurité humaine à la cybersécurité hybride
Le concept d’espace de travail agentique est désormais central dans la vision Proofpoint. Il ne s’agit plus seulement de filtrer des e-mails ou d’appliquer des politiques de DLP, mais de contrôler des interactions complexes entre humains, agents et données : « chaque interaction d’entreprise sera numérique. Et chaque interaction numérique deviendra un risque », résume Sumit Dhawan.
À ses yeux, la différence entre un humain et un agent IA est d’abord une question de degré, pas de nature : tous deux traitent des informations et peuvent être manipulés. C’est le sens du parallèle qu’il dresse : « l’IA est conçue pour faire ce que font les humains ; il est donc logique qu’elle commette les mêmes erreurs ». Autrement dit, les outils de sécurité construits pour les humains peuvent – et doivent – être étendus à leurs doubles numériques.
Cette posture s’est dessinée avec les Nexus Language Models (NLM), présentés en 2024. Proofpoint a développé ces modèles de langage propriétaires pour analyser l’intention d’un message, qu’il provienne d’un humain ou d’un agent génératif.
Concrètement, les NLM scannent le texte, la structure, le contexte conversationnel et la métadonnée associée, afin de déterminer si un contenu relève d’un échange professionnel légitime ou d’une tentative d’ingénierie sociale.
« Nos modèles sont mis à jour deux fois par semaine », précise Summit Dhawan. Et « chaque mise à jour correspond à des milliers de nouvelles variantes d’attaques observées sur les flux de nos clients. Aucun autre système au monde ne traite en temps réel autant de communications critiques ».
L’entreprise revendique ici un traitement distribué en ligne, sans latence perceptible côté utilisateur. Les modèles Nexus tournent dans un environnement conteneurisé hautement redondé, capable de corréler les signaux de 150 millions de boîtes aux lettres d’entreprise.
Cette IA défensive irrigue désormais toute la plateforme Proofpoint. Le Workbench, adopté par deux tiers des clients, offre aux équipes SOC une visibilité granulaire sur chaque message : chronologie, contexte, indicateurs de compromission, actions correctives. L’intégration avec Microsoft 365 renforce cette approche : les API Graph de Microsoft permettent à Proofpoint d’analyser directement les flux d’e-mails, Teams et SharePoint, sans agent local. Plus de 3,4 millions d’utilisateurs exploitent cette couche d’intermédiation.
Côté protection de la donnée, Proofpoint revendique un leadership. Sa nouvelle Data Risk Map matérialise une cartographie dynamique des accès et des vulnérabilités : où résident les fichiers, qui y accède, à quel moment et via quelle application. « Un programme complet de sécurité des données commence par savoir où vivent vos données, qui y a accès, et comment elles circulent », rappelle Erin Leonard, VP Data Security.
La carte est alimentée par des classificateurs autonomes, des modèles non supervisés capables de reconnaître les types de documents sensibles spécifiques à chaque organisation – sans configuration préalable. À cela s’ajoute la Data Governance for AI, un module pensé pour auditer les droits d’accès aux outils génératifs tels que Copilot, Gemini ou ChatGPT. Objectif : repérer les partages excessifs avant qu’ils ne deviennent des exfiltrations.
« Les copilotes facilitent la vie… mais aussi l’accès aux données », ironise Erin Leonard. « Notre gouvernance IA agit comme un Find My Friends des fichiers sensibles ».
Agent Gateway : protéger les IA comme des collaborateurs
Durant la plénière, l’éditeur a présenté sa Proofpoint Agent Gateway, une passerelle chargée de filtrer les communications entre agents IA. Sumit Dhawan use d’une métaphore savoureuse : « les agents IA me rappellent mes tantes en Inde. Vous leur confiez un secret, elles le répètent aussitôt à tout le monde ». Derrière le trait, un constat : les agents conversationnels n’ont aucune notion du secret.
L’Agent Gateway injecte donc des politiques DLP et de contrôle d’accès directement dans les interactions machine-to-machine, empêchant un bot d’attacher à un ticket Jira ou Salesforce un fichier contenant des informations financières confidentielles.
Cette protection fonctionne grâce à un moteur de médiation reposant sur le protocole MCP (Message Control Protocol), capable d’analyser en ligne les métadonnées des requêtes envoyées par les agents. Le flux est bloqué ou autorisé selon la conformité du contenu et la sensibilité des données référencées.
Proofpoint y voit la première brique d’une sécurité native des agents IA, comparable aux API firewalls pour les microservices.
Threat Interaction Map : voir les attaques à travers tous les canaux
L’autre innovation est la Threat Interaction Map, un tableau de bord qui corrèle les menaces observées sur l’ensemble des canaux : e-mail, Slack, Teams, WhatsApp, LinkedIn.
Michael Frendo, CTO, la décrit comme « le Waze de la cybersécurité collaborative ». L’outil identifie non seulement les points d’entrée, mais aussi les relations de confiance abusées : « chaque e-mail est désormais une invite potentielle pour un copilote. Si l’IA ne voit jamais le message, elle ne peut pas exécuter la commande », explique-t-il.
Cette carte combine plusieurs technologies : les modèles Nexus pour détecter les prompts cachés et injections IA ; le Password SSO Guard, qui bloque la saisie d’identifiants d’entreprise sur des sites frauduleux ; et une protection post-clic étendue à tous les navigateurs modernes. L’ensemble alimente le module Proofpoint Prime, qui unifie la sécurité des données, de la collaboration et de la sensibilisation.
« Prime, c’est le centre de gravité de notre plateforme », résume Ryan Kalember, executive VP Strategy. « Il relie Workbench, la Data Risk Map et l’Agent Gateway dans une même logique opérationnelle ».
Ryan Kalember, depuis 26 ans dans la cybersécurité, a comparé la vague IA à l’avènement d’Internet dans les années 1990 : « à l’époque, tout le monde avait des réseaux profondément insécurisés, mais ils n’étaient pas connectés. Quand Internet les a reliés, la cybersécurité est née. L’IA fait la même chose : elle connecte des données qui, jusqu’ici, étaient isolées ».
Selon lui, le basculement vers les agents IA crée un nouveau point de vulnérabilité systémique : « si nous pensions que les humains étaient mauvais pour résister à l’ingénierie sociale, les agents sont pires. Ils obéissent, littéralement ».
Proofpoint observe déjà des attaques exploitant des prompts invisibles dissimulés dans des e-mails HTML : du texte non rendu à l’écran, interprété uniquement par l’assistant IA connecté à la messagerie. Le scénario est inquiétant : l’agent exécute une instruction cachée – par exemple renvoyer un formulaire d’inscription – sans que l’utilisateur en ait conscience. « Ces attaques contournent la vigilance humaine. L’IA exécute plus vite qu’elle ne réfléchit », résume Ryan Kalember.
Autre sujet sensible : la vie privée. Interrogé sur la surveillance des interactions entre Copilot et les utilisateurs européens, il admet une tension : « oui, il y a des risques de conformité ; la vie privée est menacée dans les deux sens. Mais le plus grand danger, c’est l’agent qui fait exploser la confidentialité interne de toute une organisation », estime-t-il.
Proofpoint plaide ici pour une approche « zéro copy » : les modèles ne doivent pas être entraînés sur les données clients. Les outils d’analyse doivent fonctionner dans un tenant isolé, avec une séparation stricte des contextes. Une exigence qui renforce le besoin d’un contrôle juridique et technique de la donnée – domaine où Proofpoint veut se positionner comme tiers de confiance.
Les MSP, nouvelle frontière de la cybersécurité agentique
Autre thème émergent : la diffusion de ces technologies vers les infogéreurs (ou MSP, pour Managed Service Providers). Sumit Dhawan a confirmé la consolidation de Proofpoint avec Hornetsecurity, déjà fort présent sur ce marché, afin de proposer une offre « MSP ready » incluant les capacités agentiques.
« Les PME utilisent les mêmes environnements que les grands groupes – Microsoft 365, Google Workspace – mais elles n’ont pas d’équipe SOC. Les agents peuvent démocratiser certaines fonctions de sécurité », estime-t-il.
Les fonctions IA déployées dans les solutions MSP seront invisibles pour les clients finaux : « ils ne veulent pas savoir qu’un agent travaille derrière, ils veulent juste un service fiable ».
Ryan Kalember insiste sur l’objectif de ne pas « faire de l’IA », mais de rendre la sécurité plus résiliente : « la cybersécurité a toujours réagi après coup. Avec l’IA, il faut anticiper avant que la brèche ne se produise ».
Cette anticipation repose sur un couplage étroit entre observabilité et gouvernance des données : Observabilité via Threat Interaction Map et Workbench ; Gouvernance via Data Risk Map et Agent Gateway. Puis, l’année prochaine, automatisation via la plateforme Satori, qui viendra doter les SOC d’agents IA capables de prioriser et de trier les alertes.
Les deux dirigeants convergent sur un point : la sécurité de demain ne se limitera plus à protéger des humains, mais aussi leurs intelligences artificielles. « Nous passons d’une sécurité centrée sur l’humain à une sécurité centrée sur l’humain et sur l’agent, », conclut Sumit Dhawan.