Looker_Studio - stock.adobe.com

L’IA générative au service des cybercriminels : un exemple bien concret

Les cybercriminels ont franchi une nouvelle étape dans l’exploitation de l’IA générative dans leurs opérations. À quelques jours d’intervalle, Amazon et Google ont documenté de telles activités.

L’IA générative est bien exploitée pour conduire des activités malveillantes, et pas seulement de l’hameçonnage ou de la désinformation, mais bien pour conduire des activités offensives.

Ainsi, Amazon Threat Intelligence dit avoir « observé un acteur malveillant russophone motivé par des intérêts financiers qui a exploité plusieurs services commerciaux d’IA générative, pour compromettre plus de 600 appareils FortiGate dans plus de 55 pays entre le 11 janvier et le 18 février 2026 ».

Certes, explique AWS, « aucune exploitation des vulnérabilités FortiGate n’a été observée », mais « cette campagne a plutôt réussi en exploitant les ports d’administration exposés et des identifiants faibles avec une authentification à un seul facteur, des failles de sécurité fondamentales qu’un acteur peu sophistiqué a pu exploiter à grande échelle grâce à l’IA ».

L’originalité ? « Cette activité se distingue dans l’utilisation par l’acteur malveillant de plusieurs services GenAI commerciaux afin de mettre en œuvre et adapter des techniques d’attaque bien connues à chaque phase de ses opérations, malgré ses capacités techniques limitées ».

Selon AWS, l’acteur impliqué est « probablement » un simple individu ou « un petit groupe motivé par des raisons financières ayant, grâce à l’augmentation par l’IA, atteint une échelle opérationnelle qui aurait auparavant nécessité une équipe beaucoup plus importante et plus qualifiée ».

Les équipes de renseignement sur les menaces d’Amazon ne sont pas les seules à avoir fait ces constatations. Un chercheur vivant au Japon, ancien de l’armée américaine selon ses dires, explique que, « début février 2026, un serveur mal configuré contenant plus d’un millier de fichiers a été découvert exposé sur Internet ». Ce serveur est l’un de ceux mentionnés par AWS.

Là « figuraient des configurations de pare-feu volées, des cartes Active Directory, des fichiers contenant des identifiants et des mots de passe, ainsi que des plans d’attaque, détaillés, visant des organisations réparties sur plusieurs continents ». La particularité de ce serveur ? « Un pipeline logiciel intégrant directement des modèles linguistiques de grande taille (LLM) dans le processus d’intrusion ».

Selon le chercheur, des victimes dans au moins 5 pays ont été confirmées. Et la campagne aurait commencé au moins en décembre dernier. Il explique que « l’opération malveillante automatise la création de portes dérobées sur les appareils Fortinet compromis, puis se connecte aux réseaux des victimes, cartographie l’infrastructure interne et transmet les résultats à des modèles linguistiques pour analyse ».

Plusieurs modèles sont utilisés : « DeepSeek est utilisé pour générer des plans d’attaque à partir des données de reconnaissance. L’agent de codage de Claude a produit des évaluations de vulnérabilité pendant les intrusions et a été configuré pour exécuter des outils offensifs sur les systèmes des victimes ».

À cela s’ajoute un serveur MCP qui « sert de pont vers les modèles linguistiques, en maintenant une base de connaissances qui s’enrichit à chaque cible ».

« Cette activité souligne une évolution vers le phishing assisté par l’IA, où la vitesse et la précision des LLM permettent de contourner le travail manuel traditionnellement nécessaire pour établir le profil des victimes. »
Google Threat Intelligence GroupGoogle

Germán Fernández, chercheur chez CronUp, a également observé les signes d’une campagne comparable, mais avec cette fois-ci des références aux vulnérabilités CVE-2025-64446 et CVE-2025-58034.

Ces découvertes surviennent quelques jours après que les équipes de renseignement sur les menaces (GTIG) de Google ont relevé que « des acteurs APT ont utilisé Gemini pour soutenir plusieurs phases de la chaîne cinétique d’attaque, en mettant notamment l’accent sur la reconnaissance et le développement de cibles, afin de faciliter la compromission initiale ».

Selon le GTIG, « cette activité souligne une évolution vers le phishing assisté par l’IA, où la vitesse et la précision des LLM permettent de contourner le travail manuel traditionnellement nécessaire pour établir le profil des victimes ».

Mais ce n’est pas tout : « au-delà de la génération de contenu pour les leurres de phishing, les LLM peuvent servir de multiplicateur de force stratégique pendant la phase de reconnaissance d’une attaque, permettant aux acteurs malveillants de synthétiser rapidement des renseignements open source (OSINT) afin de profiler des cibles de grande valeur, d’identifier les principaux décideurs au sein des secteurs de la défense et de cartographier les hiérarchies organisationnelles ».

En conclusion, pour le GTIG, « en intégrant ces outils dans leur flux de travail, les acteurs malveillants peuvent passer de la reconnaissance initiale au ciblage actif, à un rythme plus rapide et à une échelle plus large ». Et ce n’est encore là que le début de la cinétique d’attaque.

Pour approfondir sur IA appliquée à la cybersécurité