Sergei Krestinin/Stocksy - stock
Le phishing par deepfake est déjà là, mais peu sont préparés
Les attaques de phishing avec deepfake sont là, les pirates utilisant l'IA pour tromper et escroquer les utilisateurs finaux et leurs employeurs. Découvrez ce que vous pouvez faire pour protéger vos organisations.
La cybercriminalité liée aux deepfakes est en hausse, les cybercriminels exploitant l'IA pour tromper et escroquer des cibles peu méfiantes, notamment des utilisateurs professionnels. Les deepfakes utilisent le deep learning, une catégorie d'IA qui s'appuie sur les réseaux neuronaux, pour générer des contenus synthétiques sous forme d'images, de vidéos et d'enregistrements audio.
Si les deepfakes peuvent être utilisés à des fins bénignes, les cybercriminels les créent principalement dans le but de duper leurs cibles afin d'accéder à leurs actifs numériques et financiers. En 2025, 41 % des professionnels de la sécurité ont déclaré que des campagnes de deepfakes avaient récemment ciblé des cadres de leur organisation, selon une enquête du Ponemon Institute. Le Center for Financial Services de Deloitte a également récemment averti que les pertes financières résultant de l'IA générative pourraient atteindre 40 milliards de dollars d'ici 2027, contre 12,3 milliards de dollars en 2023.
À mesure que la technologie supportant les deepfake devient plus convaincante et largement accessible, les RSSI doivent prendre des mesures proactives pour protéger leurs organisations et leurs utilisateurs finaux contre la fraude.
3 façons dont les RSSI peuvent se défendre contre les attaques de phishing par deepfake
Alors que les pirates s'empressent de tirer parti des technologies à leur portée, les recherches suggèrent que les capacités défensives des entreprises sont à la traîne. Seulement 12 % d'entre elles ont mis en place des mesures de protection pour détecter et contrer le phishing vocal par deepfake, par exemple, et seulement 17 % ont déployé des protections contre les attaques basées sur l'IA, selon une enquête réalisée par Verizon en 2025.
Il est essentiel que les RSSI prennent les mesures clés suivantes pour identifier et repousser les attaques synthétiques basées sur l'IA.
1. Adoptez de bonnes pratiques en matière de cybersécurité organisationnelle.
Comme c'est souvent le cas, les principes fondamentaux de la cyber-hygiène contribuent grandement à la protection contre les menaces émergentes et en constante évolution, y compris les attaques de phishing par deepfake.
- Authentification. Évaluer l'efficacité des systèmes d'authentification existants et le risque que l'IA synthétique fait peser sur les contrôles de sécurité biométriques.
- Gestion des identités et des accès. Gérez avec soin les identités des utilisateurs finaux. Supprimez rapidement celles des anciens employés, par exemple, et limitez leurs privilèges d'accès aux seules ressources dont ils ont besoin pour faire leur travail.
- Prévention des pertes de données et chiffrement. Veillez à ce que les politiques, procédures et contrôles appropriés soient en place pour protéger les données sensibles et de grande valeur.
2. Envisagez des outils d'IA défensifs
Bien que la technologie d'IA défensive en soit encore à ses débuts, certains fournisseurs intègrent déjà des capacités de détection des deepfakes basées sur l'apprentissage automatique dans leurs outils et services. Les RSSI devraient garder un œil sur les offres disponibles, car elles sont susceptibles de se développer et de s'améliorer rapidement dans les mois et les années à venir.
Par ailleurs, les entreprises disposant de ressources suffisantes peuvent créer et former des modèles d'IA en interne afin d'évaluer et de détecter les contenus synthétiques, en se basant sur des références techniques et comportementales, des modèles et des anomalies.
3. Renforcer la formation à la sensibilisation à la sécurité
Même si la technologie évolue, la première et la plus importante mesure de prévention contre le phishing reste la même : la sensibilisation. Mais l'IA synthétique s'est améliorée à un rythme si rapide que de nombreux utilisateurs finaux ignorent encore les éléments suivants :
- À quel point les contenus deepfake sont-ils devenus convaincants ? Dans une affaire médiatisée de phishing deepfake, un employé a participé à un appel vidéo avec ce qui semblait être le directeur financier de l'entreprise, ainsi que plusieurs autres employés. Tous étaient des imitations deepfake, et les escrocs ont réussi à convaincre l'employé de transférer 25 millions de dollars sur leurs comptes.
- Comment les cybercriminels utilisent les deepfakes pour menacer des individus et des organisations et nuire à leur réputation. Les acteurs malveillants peuvent créer des contenus deepfake préjudiciables qui semblent montrer des employés d'entreprise impliqués dans des activités incriminantes. Ils peuvent ensuite tenter de les faire chanter pour qu'ils leur donnent accès aux ressources de l'entreprise, faire chanter l'organisation pour qu'elle paie une rançon ou diffuser le contenu falsifié afin de nuire à la réputation et à la valeur boursière de l'entreprise.
- Comment les criminels combinent les données volées et les deepfakes. Les acteurs malveillants combinent souvent des données d'identité volées, telles que des noms d'utilisateur et des mots de passe, avec des images générées par l'IA et le clonage vocal pour tenter d'usurper l'identité d'utilisateurs réels et contourner l'authentification à facteurs multiples (MFA). Ils peuvent ensuite demander un crédit, accéder à des comptes professionnels et personnels existants, ouvrir de nouveaux comptes, etc.
Avec l'évolution rapide des menaces liées à l'ingénierie sociale et au phishing, le paysage des menaces change désormais trop chaque année pour se fier uniquement à une formation annuelle de sensibilisation à la cybersécurité. Dans cette optique, les RSSI doivent régulièrement diffuser des informations sur les nouvelles tactiques utilisées par les acteurs malveillants pour manipuler des cibles peu méfiantes, ainsi que des conseils à l'intention des employés au cas où ils seraient confrontés à de telles attaques.
Amy Larsen DeCarlo couvre le secteur des technologies de l'information depuis plus de 30 ans, en tant que journaliste, rédactrice et analyste. En tant qu'analyste principale chez GlobalData, elle couvre les services de sécurité gérés et les services cloud.
