Gorodenkoff - stock.adobe.com

Duo Self-Hosted : GitLab sort son assistant de codage IA sur site

Avec la version 17.9, GitLab annonce la disponibilité générale de GitLab Duo Self-Hosted, un assistant de programmation propulsé à l’IA générative attendu par certains clients français.

Pour rappel, cette option rattachée aux offres Ultimate et Duo Enterprise de l’édition Self-managed de la plateforme Git. Elle permet d’utiliser l’assistant de programmation de GitLab en exploitant des modèles d’IA générative déployés par les entreprises, dans le cloud, ou sur site.

« GitLab Duo Self-Hosted donne l’opportunité, aux entreprises soumises à exigences strictes en matière de réglementation et de confidentialité, de déployer des fonctionnalités d’IA dans leurs environnements locaux », affirme l’éditeur. Et ce « tout en éliminant la dépendance à la connectivité cloud, afin de garder le contrôle sur la résidence des données et l’isolation de l’infrastructure ».

Duo inclut trois fonctionnalités différentes : la complétion de code, la génération de code et l’assistant IA GitLab Duo Chat. Selon l’éditeur, celui-ci « combine la suite de fonctionnalités d’IA de GitLab Duo en une seule interface de chat en langage naturel, pour connecter les flux de travail DevSecOps ».

GitLab Duo Chat : une compatibilité encore partielle sur site

Duo Self-Hosted est largement propulsé par les modèles de Mistral AI.

Codestral 22B, Mixtral 8X7B et 8X22B, Mistral 7B Instruct sont les seuls modèles compatibles sur site à travers le framework vLLM. Dans ce contexte, les modèles Mixtral sont partiellement compatibles avec Duo Chat.

De quoi convaincre les administrations publiques et les groupes français réglementés. D’autant que ces LLM ne sont pas trop gourmands en mémoire VRAM. Ce ne sont malheureusement pas les plus récents. GitLab a déjà promis qu’il enrichira son catalogue de modèles validés, par exemple avec Code Llama.

Les modèles GPT-4 Turbo, GPT-4o et GPT-4o mini peuvent être utilisés depuis Azure OpenAI. Claude 3,5 Sonnet l’est à travers AWS Bedrock.

GPT-4o et Claude 3,5 Sonnet sont les deux LLM totalement compatibles avec toutes les fonctionnalités évoquées plus haut.

Ainsi, les clients en cloud public ou semi-privé auront accès à davantage de fonctionnalités comme le fait d’ajouter des fichiers de projets depuis VS Code et Jetbrains dans Duo Chat. Cette capacité nécessite d’exploiter Claude 3.5 Sonnet.

Pour l’interaction entre Duo et Amazon Q, l’éditeur est en train de développer une « identité composite ». En clair, il s’agit de lier des identifiants de l’utilisateur avec ceux des agents IA (des clés ou tokens temporaires liés à un compte de service) pouvant agir en son nom. Les deux entités doivent avoir accès aux ressources (dépôts, par exemple) pour prendre une action (exécuter une écriture). Un gage de sécurité, selon l’éditeur.

L’ombre de GitHub

Le fait de pouvoir générer et suggérer du code sans dépendre d’un fournisseur cloud est un différentiateur majeur face aux concurrents, selon David DeSanto, chief product officer chez GitLab.

Dans les faits, d’autres acteurs dont IBM avec watsonx Code Assistant, CodiumAI, Codeium, Sourcegraph, Tabnine ont également une offre self hosted et on premise, selon le Magic Quadrant consacré aux assistants de code publié par Gartner en août 2024. Toutefois, GitLab est le seul à proposer cette option dans le quatuor de tête, où l’on retrouve également Google Cloud, AWS et, surtout, GitHub.

« GitLab a acquis plus de 20 500 organisations clientes, dont plus de 50 % des entreprises mondiales, et 7 000 entreprises clientes utilisent son assistant de code IA », affirmaient les analystes de Gartner en août.

Et de préciser que l’éditeur « propose une stratégie de tarification transparente et flexible, comprenant des options à plusieurs niveaux, une tarification cohérente entre les différents modèles de déploiement et aucune exigence de nombre minimum de sièges pour les modules complémentaires de GitLab Duo ».

Mais, à travers GitHub, GitLab fait face au géant du cloud Microsoft.

En sus de GPT-4o, GitHub a récemment annoncé qu’il prend partiellement en charge les LLM Gemini 2.0 Flash de Google et o3-mini d’OpenAI, en sus de Claude 3.5 Sonnet.

Selon son propriétaire Microsoft, GitHub Copilot était utilisé par plus d’un million d’usagers payants et 50 000 entreprises en octobre 2024. Désormais, Microsoft propose un essai gratuit prolongé et des ristournes au volume d’abonnements (ce que GitHub ne fait pas). GitHub référence plus de 150 millions de comptes sur sa plateforme de dépôt de code.

Simplifier les déploiements et améliorer la visibilité des risques cyber

Mais il n’y a pas que l’IA dans la vie d’un développeur. La version 17.9 propose également des fonctionnalités comme le fait d’automatiser le nettoyage des pipelines CI/CD, de simplifier la création d’espaces de travail, l’exécution de conteneurs dans ces workspaces, ou encore d’automatiser le provisionnement de ressources Kubernetes au déploiement d’une application.

Cette version offre une meilleure visibilité de la documentation et surtout intègre les données en provenance d’EPSS (Exploit Prediction Scoring System), de KEV (Known Exploited Vulnerabilites) et de CVE (Common Vulnerabilities Exposures) dans son système de priorisation des risques de vulnérabilités. Enfin, l’éditeur prépare le remplacement de son système d’analyse de dépendances afin d’améliorer la couverture de son SBOM.

 

Pour approfondir sur IA appliquée, GenAI, IA infusée