Giskard veut fournir « l’antivirus » des agents IA

Giskard, startup française, développe une plateforme de tests des systèmes d’IA. Depuis deux ans, elle s’est spécialisée dans l’évaluation avant la mise en production des chatbots et autres agents propulsés à l’IA générative. Une solution appréciée des grandes banques françaises.

Giskard io a été fondée en 2021, mais a pris son essor avec l’émergence de l’IA générative.

Qui est Giskard ?

Spécialiste du NLP, la société s’est donné pour mission de développer des suites de tests pour éprouver les systèmes d’IA. Elle a débuté son activité avant l’avènement de ChatGPT. Il y a trois ans, les grands modèles de langage n’étaient alors que des objets scientifiques. En revanche, les entreprises avaient déjà déployé des chatbots.

Elle a été mise sur pied et elle est codirigée par Alexandre Combessie et Jean-Marie John-Mathews. Le premier était ingénieur en machine learning chez Dataiku, le second, ex-data scientist chez Thales.

« J’ai beaucoup travaillé sur des sujets d’ingénierie NLP avant que ce soit autant la mode », se rappelle Alexandre Combessie, cofondateur et co-CEO de Giskard.io. « Le postulat initial qu’on avait en 2021, c’était : “alors qu’il y a pléthore d’outils pour tester les logiciels traditionnels, il y a une pénurie pour éprouver les systèmes d’IA” ».

D’un sujet « niche », cet enjeu a pris beaucoup d’ampleur avec l’émergence de l’IA générative. « L’on parle de millions d’utilisateurs quotidiens », affirme Alexandre Combessie. « Avec les modèles de machine learning, qui génèrent des probabilités, il y a des risques, mais lorsque n’importe qui peut ingérer du texte et que les modèles peuvent répondre, les risques sont beaucoup plus grands », ajoute-t-il.

Des risques cyber, des biais, et une menace pour l’image des entreprises

 Il faut à la fois gérer les potentielles attaques, sécuriser les données, mais aussi les erreurs, les hallucinations, la toxicité.

« Nous avons bâti un ensemble d’outils d’audit, à la fois sur le volet qualité (mesure de l’hallucination, des performances) et la sécurité ».
Alexandre CombessieCofondateur et co-CEO, Giskard.io

« Aujourd’hui, notre principale activité consiste à tester des agents à base de LLM », poursuit le cofondateur. « Nous avons bâti un ensemble d’outils d’audit, à la fois sur le volet qualité (mesure de l’hallucination, des performances) et la sécurité ».

La plateforme de Giskard est utilisée par une dizaine d’entreprises, principalement des grands groupes. « Notre spécialité, c’est d’aider des entreprises qui utilisent des LLM pour déployer leurs propres chatbots », indique Alexandre Combessie. « Nous nous intéressons à des risques assez spécifiques. Par exemple, dans le monde bancaire, la quasi-totalité des grosses banques françaises aujourd’hui, qui font de l’IA générative en production en direction des clients, est passée par nous pour faire réaliser l’audit de leur système ».

Sur son site Web, la startup cite la Société Générale, Crédit Agricole, BPCE.

Des industriels (Michelin), des compagnies d’assurance (Axa), mais aussi des entités « retail » comme L’Oréal, Etam ou Decathlon ont également recours à ses services.

Giskard s’est fait connaître en développant une librairie open source Python (15 000 utilisateurs environ) avant de lancer une offre commerciale il y a un an environ. « Nous avons une bonne traction auprès des entreprises régulées qui veulent déployer des LLM tout en ayant une forte maîtrise des risques », affirme Alexandre Combessie. « Il faut nous voir un peu comme le fournisseur d’un antivirus pour des systèmes LLM exposés au public ou en interne, quand il n’y a pas le droit à l’erreur ».

« Certains bots qui n’ont pas été audités ne sont pas protégés par défaut, contre les risques d’hallucinations provoqués par des usagers malveillants. »
Alexandre CombessieCofondateur et co-CEO, Giskard.io

Ces deux volets, qualité et sécurité, exigent, selon Giskard, une analyse la plus exhaustive possible, idéalement en continu. « Le paysage des risques va évoluer à la fois parce qu’il y a en permanence de nouveaux types d’attaques qui émergent », rappelle le cofondateur. « Régulièrement, les gens qui font ces systèmes mettent à jour des éléments. Ça peut être de mettre à jour le modèle, la base de connaissances. Chaque fois, il peut y avoir des régressions, ou à l’inverse, de nouveaux types de problèmes ».

Les risques inédits que posent les LLM impliquent à la fois de renseigner les équipes cyber, mais aussi – et c’est sans doute moins récurrent dans l’appréhension des risques – les métiers. « Quand une entreprise développe une application RAG pour son service RH, il faut que le LLM réponde convenablement avec le bon niveau d’information. Ce n’est pas un membre d’une équipe de cybersécurité qui sera capable de répondre à ces questions », note Alexandre Combessie.

En sus des risques de « jailbreaks », certains attaquants veulent ternir l’image des entreprises. « C’est une grosse inquiétude des groupes. Certains bots qui n’ont pas été audités ne sont pas protégés par défaut, contre les risques d’hallucinations provoqués par des usagers malveillants », prévient-il. « Les modèles de fondation, les systèmes de modération sont efficaces sur des attaques standards, mais le domaine spécifique n’est pas forcément protégé par cette modération ».

« Les modèles de fondation, les systèmes de modération sont efficaces sur des attaques standards, mais le domaine spécifique n’est pas forcément protégé par cette modération. »
Alexandre CombessieCofondateur et co-CEO, Giskard.io

Les tests pratiqués par Giskard doivent couvrir le fonctionnement d’un chatbot ou d’un agent « dans son ensemble ». « Nous insérons nos tests dans la chaîne CI de l’application, sans nous intéresser au code ou à l’infrastructure ».

La grande différence entre la librairie open source et la plateforme tient dans l’exhaustivité et la continuité des tests. « Nous avons déposé une demande de brevet pour un système qui génère des tests en continu en faisant du suivi de données “live” : nous suivons l’actualité réglementaire, les évolutions de la base de connaissances et nous proposons de nouveaux tests automatiquement ».

« Casser » des bots pour les améliorer

Ces tests par exemple contradictoires (adversarial attacks) sont générés par des LLM tels que GPT4-o, dépourvus de leurs « filtres », à l’aide d’un pipeline multiprompt. « Un test consiste en des échanges réalistes à la fois en matière de justesse, pour éviter les hallucinations, et en matière de conformité ou de sécurité », explique Alexandre Combessie. « Nos moteurs génèrent beaucoup de questions pour essayer de “casser les bots” ».  

Ils sont également utilisés pour générer des règles et évaluer si les réponses des LLMs aux prompts adversaires sont justes ou non, suivant les politiques de l’entreprise. Par exemple, un agent RH n’est pas censé confier des conseils d’investissement à un employé.

Enfin, Giskard propose des tests et des scans de vulnérabilités à partir de standards de l’OWASP, mais aussi sur une base de données d’attaques alimentée par la startup. « Nous l’alimentons à partir de base de données publiques, ainsi qu’à partir d’événements observés en production ».

C’est le cœur du LLM Evaluation Hub, mais la plateforme contient également un volet conformité, en cours de développement. Outre une vue sur le respect ou non des politiques de l’entreprise, l’outil permettra à l’avenir de suivre la conformité à diverses régulations.

Actuellement, les clients de Giskard font appel à elle « deux à trois mois », au début de la mise en production de systèmes d’IA. Cela permettrait aux développeurs de mettre au point et d’itérer des tests spécifiques au domaine de l’entreprise et de s’assurer que l’agent répond correctement.

« Un gros système d’IA réclame neuf à douze mois de développement. Ce n’est pas anodin de développer un agent pour une grosse base d’utilisateur », signale Alexandre Combessie. Pour l’instant, ces projets à l’échelle sont peu nombreux en France, considère le dirigeant. « Nous en sommes encore au début. Il y a certainement moins de 100 gros cas d’usage en production », évalue-t-il.

Remédier les attaques en production, une piste de développement pour Giskard

Giskard n’est pas le seul sur ce créneau des tests de sécurité et des biais. Par exemple, les fournisseurs de plateformes comme Google (Vertex AI), Microsoft Azure (Azure AI Foundry) ou AWS (Amazon SageMaker) proposent des outils d’évaluation.

« Le gros chantier que l’on démarre, c’est ce qu’on appelle la mitigation. C’est-à-dire proposer des outils pour se défendre automatiquement contre les attaques. »
Alexandre CombessieCofondateur et co-CEO, Giskard.io

« Ces tests-là sont menés sur des modèles de fondation. Les entreprises adoptent des LLM de base qui ont déjà été testés, mais elles les utilisent pour des usages assez spécifiques », indique Alexandre Combessie. D’autres acteurs comme Cisco avec AI Defense entendent se placer en aval, au moment de la production. Giskard s’y intéresse également.

« Le gros chantier que l’on démarre, c’est ce qu’on appelle la mitigation. C’est-à-dire proposer des outils pour se défendre automatiquement contre les attaques », prévoit Alexandre Combessie. « Là, aujourd’hui, on fait vraiment de l’audit détaillé. Pour l’instant, c’est au développeur de l’agent d’implémenter les techniques de défense ».

« Nous voulons proposer des garde-fous, des systèmes de filtres les plus performants possibles. Pour le moment, les outils du marché, selon nos clients, sont peu efficaces ou peu personnalisables ».

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire