Avantages et inconvénients de l’IA dans la cybersécurité
Pour répondre aux enjeux de cybersécurité toujours plus pressants, il peut être tentant de se tourner vers l’IA. Mais sans l’adoption de stratégies adéquates, l’IA peut introduire des risques parallèlement à ses avantages.
L’adoption de l’IA est en hausse, et son utilisation dans le domaine de la cybersécurité présente à la fois des avantages et des inconvénients : si l’IA peut améliorer la détection des menaces, elle introduit également de nouveaux vecteurs d’attaque.
Un rapport de McKinsey de 2024 prévoit que le marché des outils de cybersécurité augmentera de 12,4 % par an jusqu’en 2027, dépassant ainsi sa croissance historique. Et plus de 70 % des grandes organisations, tous secteurs confondus, prévoient d’investir dans des outils de sécurité augmentés à l’IA. Mais l’IA peut aussi accroître les risques, et être utilisée afin d’affiner les campagnes de phishing, vishing, et plus généralement toutes les formes d’ingénierie sociale.
Peser le pour et le contre de l’IA en matière de cybersécurité est difficile pour de nombreuses organisations. Toutefois, en mettant en œuvre des pratiques exemplaires telles que la supervision humaine et des politiques de sécurité claires, les équipes peuvent atténuer les risques et utiliser l’IA dans leurs opérations de cybersécurité avec une plus grande confiance.
Cinq avantages de l’IA dans la cybersécurité
L’IA a radicalement changé la façon dont les praticiens de la cybersécurité détectent les menaces émergentes et y répondent. L’IA aide dans les domaines de la cybersécurité tels que la détection des menaces, le temps de réponse, l’analyse prédictive, les alertes et la gestion des correctifs.
1. Amélioration de la détection des menaces en temps réel
Les outils de sécurité dopés à l’IA peuvent considérablement améliorer la détection des menaces en analysant de grands volumes de trafic réseau provenant de diverses sources, y compris le comportement des utilisateurs et les journaux système. Par exemple, les outils d’IA peuvent identifier des schémas anormaux dans le trafic réseau, ce qui pourrait indiquer une menace persistante avancée que les outils de sécurité traditionnels pourraient négliger.
Les outils d’IA excellent également dans la détection et la catégorisation de modèles. Les modèles d’apprentissage automatique formés sur des ensembles de données massives peuvent identifier et catégoriser efficacement les schémas malveillants sur la base de données historiques. Cela peut aider à localiser les menaces et à renforcer la sécurité du réseau.
2. Amélioration du temps de réponse
L’automatisation des enquêtes sur les incidents permet de rationaliser la détection, l’analyse et l’endiguement des menaces de sécurité.
Lorsqu’un incident se produit, les systèmes d’IA peuvent immédiatement corréler les données en temps réel entre les différentes plateformes de sécurité, telles que les pare-feu, les systèmes de protection des hôtes (serveurs et postes de travail), les systèmes de prévention et de détection des intrusions (IDS) et les outils de gestion des informations et des événements de sécurité. Ces intégrations permettent à l’IA de reconstituer rapidement la chronologie de l’attaque.
Par exemple, dans le cas d’une attaque de ransomware, un outil d’IA pourrait identifier la cause première et les systèmes affectés, hiérarchiser les risques et recommander des stratégies d’endiguement (un processus qui pourrait nécessiter des heures, voire des jours d’efforts manuels). Avec l’IA, cependant, le processus peut commencer en quelques minutes, ce qui minimise considérablement les dommages potentiels.
3. Analyse prédictive de la sécurité
En analysant l’historique des incidents de sécurité, les modèles d’IA peuvent prévoir les vulnérabilités potentielles avant que les acteurs de la menace ne les exploitent. Par exemple, l’outil d’IA d’une institution financière peut reconnaître des schémas d’authentification inhabituels comme une attaque potentielle d’usurpation d’identité, en se basant sur des schémas similaires détectés lors de brèches antérieures.
4. Réduction des faux positifs
L’IA peut lutter contre la fatigue des alertes en réduisant les notifications de faux positifs. Par exemple, les grandes institutions financières traitent de nombreuses transactions quotidiennes. Les outils de sécurité traditionnels peuvent signaler des volumes élevés de tentatives de connexion comme suspectes, ce qui déclenche des centaines d’alertes quotidiennes que les analystes humains doivent inspecter manuellement.
Un système piloté par l’IA, en revanche, peut analyser les données historiques des transactions, le comportement des utilisateurs et d’autres informations contextuelles afin d’identifier les schémas d’exploitation normaux. Les équipes de sécurité peuvent ainsi se concentrer sur les menaces réelles plutôt que de passer des heures à enquêter sur des anomalies bénignes.
5. Gestion automatisée des correctifs
Les capacités d’automatisation de l’IA peuvent contribuer aux tâches de sécurité de routine.
Par exemple, l’IA peut automatiser l’évaluation des vulnérabilités de milliers de systèmes dans un environnement informatique. L’équipe de sécurité est ainsi plus à même de prendre des décisions éclairées, par exemple en ajustant les contrôles d’accès en fonction des scores de risque et en surveillant en permanence les configurations de sécurité pour détecter les lacunes. Lorsqu’une vulnérabilité critique est découverte, les systèmes d’IA peuvent identifier les actifs affectés, hiérarchiser les correctifs et vérifier la réussite de la remédiation.
Cinq inconvénients de l’IA dans la cybersécurité
Si les outils de sécurité de l’IA offrent des avantages importants en matière de cybersécurité, ils présentent également plusieurs inconvénients.
1. Coûts de mise en œuvre élevés
L’utilisation de l’IA dans le domaine de la cybersécurité nécessite un investissement initial, en particulier pour les organisations disposant d’environnements informatiques sur site et dans le cloud. Le déploiement de l’IA dans des environnements hybrides peut nécessiter du matériel spécialisé, comme des GPU pour l’entraînement des modèles, des licences logicielles de niveau entreprise et du personnel qualifié, comme des datascientists et des architectes de la sécurité.
2. Complexité de la maintenance
Les outils de sécurité de l’IA nécessitent un perfectionnement continu des modèles, des mises à jour régulières des données et une optimisation permanente des performances. Les organisations doivent disposer d’équipes dédiées au recyclage des modèles, à l’ingénierie des fonctionnalités et à la résolution des problèmes. Les petites organisations ont souvent du mal à répondre à ces exigences si elles ne disposent pas de l’expertise technique et du budget nécessaires pour maintenir efficacement des outils de sécurité IA sophistiqués.
3. Attaques spécifiques
Les outils d’IA sont confrontés à des attaques uniques ciblant leur infrastructure d’apprentissage automatique sous-jacente. Les vecteurs d’attaque les plus courants sont les suivants :
- Attaques par empoisonnement des données. Dans une attaque par empoisonnement des données, les adversaires manipulent les données d’entraînement en injectant des échantillons malveillants soigneusement conçus pour forcer l’outil d’IA à mal classer les attaques futures.
- Attaques par extraction. Les adversaires procèdent à une rétro-ingénierie des paramètres du modèle et des limites de décision afin de révéler l’architecture du modèle et les données d’entraînement. Les données révélées peuvent contenir un code source propriétaire ou des informations sensibles.
- Attaques d’évasion. Les adversaires modifient les schémas d’attaque pour exploiter les angles morts des modèles, par exemple en modifiant légèrement les signatures de logiciels malveillants pour empêcher le système de détecter certains types de logiciels malveillants tout en conservant la fonctionnalité générale.
4. Implications en matière de protection de la vie privée
Certains outils de sécurité de l’IA traitent de grandes quantités de données sensibles. Les organismes de santé qui mettent en œuvre une détection des menaces basée sur l’IA, par exemple, doivent garantir la conformité RGPD (voire HIPAA – Health Insurance Portability and Accountability Act – outre-Atlantique), lorsqu’ils traitent des dossiers médicaux de patients ou d’autres données sensibles. De même, les institutions financières doivent respecter les normes PCI DSS lorsqu’elles analysent les modèles de transaction des clients.
5. Considérations éthiques
L’IA dans la cybersécurité peut soulever des questions éthiques complexes. Par exemple, la détection d’anomalies basée sur le comportement peut signaler à tort certaines personnes ou certains groupes. En outre, il peut être difficile de déterminer la responsabilité d’un outil d’IA lorsqu’il prend une décision de sécurité incorrecte.
Six bonnes pratiques pour utiliser l’IA dans la cybersécurité
Les outils de cybersécurité dopés à l’IA peuvent renforcer la sécurité et aider les organisations à atténuer les menaces. Adoptez ces bonnes pratiques pour gérer les risques.
1. Assurer une supervision humaine
Maintenir un contrôle humain sur toutes les décisions critiques. Bien que l’IA puisse détecter et signaler les comportements anormaux, certaines décisions – telles que le blocage de l’accès aux ressources sensibles ou l’escalade des incidents – devraient toujours être soumises à un examen humain pour éviter les faux positifs et les problèmes éthiques.
2. Établir une politique claire en matière de sécurité de l’IA
Une politique de sécurité de l’IA garantit une utilisation équitable de l’IA, définit les limites de la responsabilité et relève les défis liés à la prise de décision automatisée. Les organisations doivent comprendre clairement les risques et les limites de l’utilisation de l’IA sans intervention humaine. Par exemple, les organisations opérant dans des secteurs très réglementés tels que la santé doivent préciser où les systèmes d’IA peuvent – et ne peuvent pas – fonctionner, notamment lorsqu’ils manipulent des données sensibles sur les patients.
3. Utiliser des jeux de données d’entraînement de haute qualité
Entraînez les modèles à l’aide de jeux de données impartiaux et de haute qualité afin de minimiser les imprécisions. Pour améliorer la précision et protéger la vie privée des utilisateurs, adaptez les données d’entraînement aux fonctions spécifiques de l’outil d’IA. Par exemple, les modèles conçus pour détecter les tentatives de connexion non autorisées doivent être entraînés à partir des journaux des tentatives infructueuses, tout en évitant les informations sensibles inutiles sur les clients.
4. Combiner l’IA avec les outils de sécurité traditionnels
Combinez les outils d’IA avec les outils de sécurité traditionnels tels que les pare-feu, les systèmes de détection d’intrusion et les audits manuels pour mettre en place une stratégie de défense multicouche. Cette approche offre une protection complète contre toute une série de cybermenaces.
Par exemple, un détaillant peut intégrer un système de protection des hôtes piloté par l’IA à son IDS existant. Tandis que le système d’IA identifie les logiciels malveillants avancés sur la base de leur comportement, le système de détection des intrusions se concentre sur la détection des menaces connues sur la base de signatures. Cette approche stratifiée protège à la fois contre les nouvelles techniques d’attaque et contre celles qui ont déjà été utilisées.
5. Maintenir les modèles à jour
Mettre régulièrement à jour les outils d’IA et les modèles sous-jacents pour maintenir leur efficacité face à l’évolution des menaces. Des mises à jour continues garantissent que le système peut détecter les derniers vecteurs d’attaque et y répondre. Par exemple, si une organisation utilise un détecteur de phishing alimenté par l’IA, elle doit régulièrement mettre à jour l’outil avec les dernières techniques d’attaque afin de prévenir les nouvelles attaques de phishing.
6. Mettre en place des contrôles d’accès
Sécuriser l’accès au système d’IA avec des mécanismes d’authentification forts, tels que l’authentification à facteurs multiples (MFA). Cela garantit que seul le personnel autorisé peut modifier les configurations de l’IA ou accéder aux données sensibles, réduisant ainsi le risque de menaces internes et de changements non autorisés.
Par exemple, une entreprise technologique qui déploie un outil d’analyse des menaces alimenté par l’IA peut utiliser la MFA pour protéger l’accès au tableau de bord du système. Seules les personnes disposant d’un accès protégé par MFA peuvent modifier les configurations ou examiner les analyses sensibles. Cela garantit que les utilisateurs non autorisés ne peuvent pas modifier les paramètres critiques à des fins malveillantes.