besjunior - stock.adobe.com

L'IA générative à l'honneur lors de Black Hat USA 2023

Environ un an après que l'IA générative ait été placée sous les projecteurs, la technologie montre des signes précoces de potentiel pour la sécurité.

Comme prévu, le thème de Black Hat USA 2023 était l'IA générative, mené par des annonces de produits et des discours sur une explosion culturelle désormais incontestable.

La conférence annuelle sur la sécurité a été lancée par une introduction de Jeff Moss, fondateur de Black Hat et DEF CON, ainsi qu'un discours d'ouverture de Maria Markstedter, fondatrice d'Azeria Labs. Le discours d'ouverture de cette dernière, intitulé « Gardiens de l'ère de l'IA : Naviguer dans le paysage de la cybersécurité de demain », était consacré à la transformation et aux défis que l'IA générative apporte à l'industrie de la sécurité.

Pour Maria Markstedter, « alors que le monde s'oriente vers un nouveau type de technologie, les entreprises se livrent une course effrénée pour dominer le marché ». Et sur le salon des fournisseurs à Black Hat, les références à l'IA, à l'IA générative et aux grands modèles de langage (LLM) étaient claires et bien visibles.

Lors de la keynote initiale, Jeff Moss et la DARPA ont annoncé le « Défi Cyber IA » (AIxCC), une compétition sur deux ans qui vise à mettre au défi les informaticiens et les développeurs de logiciels de développer des outils de cybersécurité alimentés par l'IA.

Les demi-finales et finales du concours se dérouleront respectivement lors de Black Hat 2024 et 2025. Chacune des cinq meilleures équipes en demi-finale recevra 2 millions de dollars, tandis que les trois premiers gagnants en finale recevront respectivement 4 millions, 3 millions et 1,5 million de dollars (du premier au troisième).

« Au cours de la dernière décennie, nous avons assisté au développement de nouvelles capacités prometteuses, rendues possibles grâce à l'IA. Lorsqu'elle est utilisée de manière responsable, nous voyons un potentiel significatif pour cette technologie à être appliquée à des problèmes clés de cybersécurité. En défendant automatiquement les logiciels critiques à grande échelle, nous pouvons avoir le plus grand impact sur la cybersécurité à travers le pays, et le monde », a déclaré Perri Adams, responsable du programme AIxCC de la DARPA, dans un communiqué de presse.

Evolution ou… plateau ?

Suite à l'explosion culturelle et technologique provoquée par le lancement de ChatGPT d'OpenAI l'automne dernier, l'industrie de la sécurité a vu un investissement massif dans les technologies de LLM telle que l'IA générative, ainsi que plusieurs annonces de produits de haut profil.

Google et IBM ont tous deux annoncé des offres alimentées par l'IA générative lors de la conférence RSA 2023 en avril – un salon qui a également fortement mis en avant le thèmse de l'IA générative. A la même période, Microsoft a annoncé son assistant virtuel « Security Copilot ».

A l’occasion de Black Hat USA 2023, Tenable a annoncé son offre alimentée par une IA générative, nommée ExposureAI. La nouvelle plateforme intégrera des capacités de LLM dans la plateforme Tenable One et pourra offrir aux clients des capacités telles que des conseils de mitigation prioritaires, des informations exploitables et des actions recommandées. Glen Pendley, le CTO de Tenable, a confié à la rédaction de TechTarget que le grand différenciateur entre cette offre et les autres offres récentes alimentées par LLM est la qualité des données du fournisseur de sécurité.

Environ un an après l'émergence de ChatGPT, des fournisseurs ont lancé de nouveaux produits d'IA générative et d'autres ont intégré des fonctionnalités dans des produits préexistants. Bien que chaque produit ait ses propres capacités, il existe également des chevauchements clairs. Google Cloud Security AI Workbench et la suite QRadar d'IBM, les récentes sorties basées sur l'IA des fournisseurs respectifs, présentent toutes deux une chasse aux menaces automatisée et des alertes de vulnérabilité priorisées.

Levi Gundert, CSO chez Recorded Future, s’est dit d'accord sur le fait qu'il y a « un peu de courbe d'apprentissage déjà intégrée à ce stade ». Il dit passer une grande partie de son temps actuellement à réfléchir à la manière d’utiliser la technologie au-delà de l'intelligence de base et en direction de la pensée de second ordre, qui se réfère à la capacité d'un être à penser à long terme et à considérer les conséquences secondaires.

En avril, l'entreprise de Levi Gundert a annoncé Recorded Future AI, un outil basé sur le modèle GPT d'OpenAI capable d'effectuer des évaluations automatiques et en temps réel des menaces dans l'environnement d'un client. Selon un communiqué de presse accompagnant, le modèle a été formé sur une décennie de données provenant de l'équipe de renseignement sur les menaces du fournisseur, le groupe Insikt.

Brian Fox, directeur technique du fournisseur de sécurité de la chaîne logistique Sonatype, pense qu'un problème empêchant les capacités de l'IA générative d'atteindre un certain plateau est la gestion des droits – la question de qui possède les données alimentées et créées par les modèles d'IA : « c'est ce genre de préoccupations que nous avons et je suis sûr que d'autres ont également. Nous surmonterons ces choses, mais en l'état actuel des choses, il y a encore des questions sans réponse. C'est pourquoi je pense que tout le monde tend à dire : 'c'est utile pour ces cas. Cela pourrait être utile pour ces autres cas. Mais nous ne sommes pas sûrs des implications légales ou des implications de sécurité que cela implique'. »

Eric Skinner, vice-président de la stratégie commerciale et du développement corporate chez Trend Micro, a confié à la rédaction de TechTarget penser qu'il y aurait une courte stagnation des capacités de la technologie pour le moment car certains des cas d'utilisation les plus évidents ont été « rapidement résolus » : « il a été rapidement évalué que cette [technologie] cible réellement un problème actuel. Il y a des employés juniors dans les équipes de sécurité qui ont du mal à gérer le bombardement d'alertes, et donc vous pouvez l'appliquer à ce problème ».

Pour autant, selon lui, « ce plateau sera de courte durée, car il y aura la prochaine vague d'utilisations plus innovantes, plus inhabituelles, pour cette technologie. Et la même chose va se produire avec les attaquants, que nous allons voir trouver des moyens intéressants d'utiliser l'IA générative ».

Pour approfondir sur IA appliquée à la cybersécurité

Close