IoT : les Small Language Models à la conquête du edge

Face à la forte demande pour les infrastructures capables de prendre en charge les LLM, à l’augmentation des dépenses opérationnelles et aux préoccupations liées à la confidentialité des données, les DSI se demandent de plus en plus si un « plus gros » modèle est toujours synonyme de « modèle » en matière d’IA. D’autant que les Small Language Models (SLM) apparaissent comme une alternative crédible.

Les DSI sont sous pression depuis plusieurs années : ils doivent livrer des projets numériques ambitieux tout en jonglant avec des budgets contraints et des exigences de plus en plus fortes de leur direction générale. Selon une étude de Gartner, 92 % des DSI prévoient d’intégrer l’intelligence artificielle (IA) dans leurs organisations d’ici 2025. Pourtant, 49 % d’entre eux peinent encore à évaluer et démontrer la valeur de cette technologie.

Dans ce contexte, les Small Language Models (SLM) s’imposent comme une solution séduisante. Ils promettent des IA moins coûteuses et plus sécurisées, tout en s’alignant sur les priorités stratégiques des entreprises. Sur bien des points, les SLM ont du sens.

« La communauté IA explore activement les SML comme Mistral Small et DeepSeek R1 », observe Amer Sheikh, directeur scientifique des données chez BearingPoint. « Ces modèles rencontrent un fort engouement, comme en témoignent leurs volumes de téléchargements. Leur popularité s’explique par leur capacité à arbitrer entre précision, rapidité et rentabilité. »

L’intelligence artificielle poussée vers le edge

« Les SLM ouvrent la possibilité de pousser l’exécution vers la périphérie. »
Peter Van der PuttenDirecteur du laboratoire d’IA de Pegasystems et professeur assistant d’IA à l’université de Leyde

C’est bien là l’essentiel : il s’agit d’un compromis, mais d’un compromis qui en vaut clairement la peine. Par nature, les SLM offrent une alternative pratique pour les organisations qui souhaitent déployer de l’IA sans les lourdeurs associées aux grands modèles de langage. Ils participent aussi à la prochaine vague d’adoption du edge computing, en permettant à des modèles d’IA de tourner sur des objets connectés (IoT) et des systèmes industriels sans dépendre d’une infrastructure cloud.

« Les SLM ouvrent la possibilité de pousser l’exécution vers la périphérie », explique Peter Van der Putten, directeur du laboratoire d’IA de Pegasystems et professeur assistant d’IA à l’université de Leyde. « Ces modèles pourront par exemple s’exécuter sur des smartphones haut de gamme, sur des dispositifs comme des caméras et, avec un consentement approprié, exploiter de toutes nouvelles sources de données qui ne sont actuellement pas accessibles sur Internet. »

Malgré leurs promesses, les applications concrètes des SLM en edge n’en sont qu’à leurs balbutiements. Parmi les implémentations, on peut citer le modèle R1 de DeepSeek, intégré aux systèmes d’infodivertissement de constructeurs automobiles chinois (comme Geely), et Phi-3, un petit modèle conçu pour les applications d’IA mobiles. Dans le domaine de l’éducation, Smile Plug de Stanford utilise de petits modèles d’IA pour proposer des expériences d’apprentissage interactives sur des appareils Raspberry Pi sans connexion Internet.

« Les SLM peuvent être déployés et le sont dans un certain nombre de secteurs où des connaissances spécifiques du domaine sont requises », ajoute Amer Sheikh.

Contrairement aux LLM, qui nécessitent une puissance de calcul importante et des ressources cloud, les SLM peuvent s’exécuter localement, réduisant ainsi les coûts et les risques de sécurité, d’où leur pertinence pour améliorer l’intelligence des périphériques. « Les coûts d’inférence sont considérablement réduits. En revanche il faut prévoir quelques frais pour le fine-tuning et l’auto-hébergement », ajoute-t-il.

Les SLM peuvent de surcroît être entraînés sur des jeux de données plus petits et plus ciblés, renchérit Isabel Al-Dhahir, analyste principale chez GlobalData. « L’utilisation de SLM [spécialisés] permet de contourner plusieurs difficultés liées aux LLM généralistes. »

Cette capacité à se concentrer sur des cas d’utilisation précis et spécifiques à une industrie, pour un coût inférieur, est d’ailleurs une des raisons principales pour lesquelles des secteurs réglementés comme la finance ou le droit se tournent vers les SLM.

Grâce aux RAG (Retrieval Augmented Generation), ces modèles peuvent gagner encore plus en précision.

La sécurité au cœur des SLM

En plus du coût, la sécurité reste un facteur clé pour les appareils en périphérie. Pour Saman Nasrolahi, directeur d’InMotion Ventures (la branche d’investissement de Jaguar Land Rover), les SLM répondent là encore à plusieurs exigences.

« Les hallucinations restent un problème pour les SLM, comme pour les LLM. Même si les modèles plus spécialisés ont tendance à être moins enclins à ce genre de problèmes. »
Saman NasrolahiDirecteur, InMotion Ventures

Une grande partie des craintes entourant les LLM est liée au manque de transparence sur la collecte et l’analyse des données des clients. Les SLM peuvent être déployés sur site. « Cette approche les rend beaucoup plus sûrs et moins vulnérables aux violations de données (qui n’ont pas besoin de quitter les murs d’une organisation) », souligne Saman Nasrolahi.

« Environ un tiers des cyberattaques surviennent lorsque des données sont partagées avec un fournisseur externe. En conservant les données sur site, les SLM réduisent la surface d’attaque et les vulnérabilités de l’entreprise », complète-t-il.

Andrew Bolster, responsable senior de la recherche et du développement chez Black Duck, ajoute que la portabilité des SLM, du moins comparée à celle des géants GPT-4, Claude ou même Llama, les rend parfaitement adaptés au déploiement en périphérie.

Cependant, ces modèles ne sont pas exempts de limites. Hallucinations, biais et besoins de réglage précis impliquent une mise en œuvre minutieuse. « Les hallucinations restent un problème pour les SLM, comme pour les LLM. Même si les modèles plus spécialisés ont tendance à être moins enclins à ce genre de problèmes », explique Saman Nasrolahi.

Aussi un facteur de différenciation

Un autre facteur clé de l’adoption des SLM dans le edge est leur capacité à fonctionner avec une consommation énergétique réduite. « Les SLM sont moins énergivores, ce qui les rend plus économiques, plus respectueux de l’environnement et souvent suffisamment compacts pour fonctionner localement sur des équipements comme votre mobile ou votre PC, sans connexion Internet », confirme Silvia Lehnis, directrice conseil pour les données et l’IA chez UBDS Digital.

C’est un thème récurrent. Cette prise de conscience croissante, du fait que les SLM peuvent permettre de passer à des modèles d’IA plus ciblés que les LLM standardisés, devrait changer la façon dont les entreprises envisagent l’utilisation globale de la GenAI.

En conséquence, le rapport Tech Trends 2025 de Deloitte suggère que les entreprises envisagent désormais les SLM et les options open weight pour entraîner leurs modèles sur des ensembles de données plus petits et plus précis.

Alors, quelles seront les implications pour l’avenir des SLM et des dispositifs edge ? Ils auront assurément un rôle majeur à jouer. Pour les coûts et la sécurité, on l’a dit, mais aussi dans la différenciation.

Comment ? En adaptant des modèles d’IA aux besoins spécifiques de son secteur et de son entreprise. Il y a fort à parier que dans les prochaines années, les organisations se concentreront sur des IA ultra-pertinentes et adaptées à leur domaine, gages d’avantage concurrentiel. L’edge computing – avec ces modèles plus petits – s’en trouvera profondément modifié et devrait voir sa démocratisation s’accélérer.

Pour approfondir sur Internet des objets (IoT)