
besjunior - stock.adobe.com
Small Language Models : les petits modèles d’IA montent en puissance
Les plus grands modèles de langage (LLM) ne sont pas toujours les meilleurs. Un analyste d’Enterprise Strategy Group (Omdia) explique pourquoi ; et comment des modèles plus petits (SLM) peuvent souvent mieux répondre aux besoins des entreprises.
Les grands modèles de langage (LLM) impressionnent. Ils génèrent du texte, traduisent, synthétisent, voire dessinent. Mais leurs tailles imposantes et leur énorme consommation de ressources sont un frein à leur adoption à long terme, encore plus en entreprise.
Face à ces limites, une alternative gagne du terrain : les Small Language Models (SLM). Plus légers et plus spécialisés, ces modèles offrent une approche plus économique, plus rapide et globalement mieux adaptée aux besoins des entreprises.
Contrairement aux LLM, aux milliards de paramètres et qui sont entraînés sur d’immenses volumes de données publiques et génériques, les SLM sont entraînés sur des jeux de données bien plus petits, et spécifiques à une entreprise.
Cette spécialisation, loin d’être un défaut, leur permet au contraire d’exécuter des tâches précises avec une meilleure pertinence et une consommation de ressources optimisée.
Une forme d’IA bien adaptée aux besoins métier
L’un des atouts clefs des Small Language Models est qu’ils s’adaptent aux corpus documentaires internes d’une organisation.
Dans le support client, un SLM entraîné sur des manuels produits et des FAQ, par exemple, pourra mieux répondre aux demandes qu’un LLM générique. Il comprendra les subtilités des produits et fournira des réponses plus précises et mieux contextualisées, ce qui améliorera l’expérience client et pour un coût inférieur.
Au-delà du service client, ces modèles peuvent automatiser la rédaction de rapports internes, synthétiser des comptes rendus de réunions et générer des supports de formation personnalisés. Leur flexibilité en fait un atout pour optimiser la gestion des connaissances et fluidifier les processus métier.
Une alternative plus rentable que les LLM
L’entraînement et l’exploitation des LLM nécessitent d’énormes capacités de calcul, une phase qui repose sur des GPU haut de gamme, très chers, le plus souvent de chez Nvidia. À l’inverse, les SLM ont besoin d’infrastructures plus accessibles, voire sur des CPU d’AMD ou d’Intel.
Cette réduction des besoins en ressources de calcul se traduit par une baisse significative des coûts de développement et de déploiement.
En prime, les SLM ont des inférences plus rapides, avec à la clef des temps de réponse inférieurs
Deux outils complémentaires pour les SLM
Pour tirer pleinement parti des SLM, des outils comme le RAG et les bases de données vectorielles jouent un rôle clef.
Le RAG (Retrieval Augmented Generation) permet aux SLM d’accéder à des sources, externes (comme des bases de connaissances), ou internes. Cette dissociation de la base et du modèle permet de garder les réponses à jour (sans réentraîner le modèle) et réduisant les risques d’hallucination (en cantonnant les réponses à ces sources).
Les bases vectorielles, quant à elles, optimisent le stockage et la récupération des informations. En convertissant les données en vecteurs, elles aident les SLM à identifier plus rapidement les éléments pertinents, même si la formulation des requêtes varie.
RAG et bases vectorielles, quand ils sont associés, permettent de créer, avec des SLM, des solutions d’IA intelligentes et ultra-précises.
Vers une adoption massive des Small Language Models
Les Small Language Models ouvrent de nouvelles perspectives prometteuses pour les entreprises :
- Automatiser des processus internes, comme la génération de rapports et la synthèse de données, pour fluidifier le travail et renforcer la gestion des connaissances.
- Améliorer le service client grâce à des chatbots et des assistants virtuels capables d’apporter un support personnalisé et instantané.
- Accroître la productivité des employés en leur donnant des outils pour analyser et exploiter rapidement l’information.
- Stimuler l’innovation en mettant en lumière des tendances clefs et en facilitant le développement de nouveaux produits et de nouveaux services.
Mais attention ! Les SLM ne sont pas qu’une version allégée des LLM. Ils transforment fondamentalement la manière dont les entreprises exploitent l’IA pour valoriser leurs données. En réduisant les coûts et en augmentant la précision des analyses, ils s’imposent comme la pierre angulaire de futurs systèmes d’IA générative professionnels qui mélangeront plusieurs formes d’IA et plusieurs modèles de GenAI.
Une technologie en maturation
Comme toute innovation, l’IA générative passe par plusieurs phases de maturité.
À ses débuts, c’est-à-dire encore aujourd’hui ; elle est coûteuse et relativement peu efficiente. Mais les pressions du marché favorisent des avancées technologiques avec, souvent, des baisses de prix qui accélèrent l’adoption.
Aujourd’hui, c’est un fait, les entreprises veulent intégrer l’IA, mais, et c’est un autre fait, elles se heurtent à des coûts d’exploitation élevés. Les SLM apportent une solution.
Le secteur évolue rapidement, et les prochaines années verront l’émergence de modèles encore plus efficaces et spécialisés. Suivre l’évolution de ce marché s’annonce en tout cas passionnant.
Stephen Catanzano est analyste senior chez Enterprise Strategy Group (ESG), désormais intégré à Omdia, où il couvre la gestion et l’analyse des données. ESG fait partie d’Omdia. Ses analystes entretiennent des relations commerciales avec des fournisseurs de technologies.