ra2 studio - Fotolia

L'architecture convergée est ce qui manque à l'IA en entreprise

Une infrastructure d'IA fragmentée ne fait pas ses preuves en production. Une architecture de données convergée, dotée d'une gouvernance unifiée ouvre la voie à une IA d'entreprise fiable et évolutive.

On observe une tendance récurrente dans les projets d'IA en entreprise : une équipe développe une application d'IA prometteuse qui fonctionne à merveille en laboratoire, mais tout commence à se dégrader dès qu'elle tente de la mettre en production. La latence grimpe en flèche, les pipelines de données se transforment en un patchwork d'intégrations. Et des lacunes en matière de gouvernance apparaissent.

Lorsque quelque chose tourne mal, l’entreprise n'a pas de responsable clairement identifié ni de plan de reprise bien défini. Il ne s'agit pas d'un problème de modèle ou d'ingénierie ponctuelle, mais d'un problème fondamental d'architecture.

Le coût caché d'une infrastructure d'IA fragmentée

La plupart des plateformes d'IA d'entreprise sont assemblées à partir de composants. Chaque élément a du sens en tant que choix autonome. Mais à mesure que l'IA passe du stade expérimental à celui de charge de travail critique, les jonctions entre ces composants deviennent la source de défaillances.

La latence à elle seule en dit long. Lorsqu’un agent d’IA doit récupérer du contexte, interroger des données structurées, rechercher un vecteur d’intégration, valider les autorisations d’un utilisateur et consigner l’interaction — chaque étape franchissant une passerelle réseau vers un système distinct —, la latence s’accumule.

Dans un flux d’IA agentique, où un modèle effectue un raisonnement sur des dizaines d’étapes, la latence s’accumule en cascade. Ce qui semblait être un système rapide lors des tests devient lent, peu fiable et coûteux en production.

Au-delà de la latence, la fragmentation crée des angles morts en matière de gouvernance. Lorsque la base vectorielle ignore les politiques de classification des données et que la couche d’orchestration ne parvient pas à appliquer les contrôles d’accès, il en résulte une faille de sécurité et de conformité qu’aucun correctif au niveau de l’application ne peut combler. Ce compromis n’est plus acceptable à l’heure où les entreprises mettent des agents d’IA en contact avec des données commerciales sensibles, des informations financières, des dossiers clients, ou encore des informations réglementées.

Les arguments en faveur d’une architecture convergée

Une architecture de données convergée résout ce problème en regroupant tous les types de données au sein d'une plateforme unifiée unique, dotée d'une gouvernance, d'une sécurité et d'un contrôle d'accès partagés. Aucune donnée n'a besoin de franchir les limites du réseau pour être regroupée, car elle n'a jamais été séparée au départ.

La vectorisation est de plus en plus le pilier de la capacité de l'IA à traiter du contenu non structuré. Lorsque les vecteurs sont stockés aux côtés des données structurées qu'ils décrivent — avec le même indexage, les mêmes politiques de sécurité et le même moteur de requête —, la récupération devient nettement plus rapide et plus cohérente. Les utilisateurs peuvent interroger un dossier client et son encodage sémantique en une seule opération, avec un ensemble unique d'autorisations appliquées en un seul endroit.

L'émergence de l'IA agentique rend cette question encore plus urgente. Les agents sont dits stateful. Cela signifie qu'ils doivent garder en mémoire le contexte, d'une étape à l'autre, accéder aux données de manière dynamique et prendre des mesures ayant des conséquences concrètes sur l'activité.

Une mémoire d'agent hébergée en dehors de la base de données pose les mêmes problèmes que toute autre intégration externe : latence, risque d’incohérence et lacunes en matière de gouvernance. Lorsque la mémoire d'agent, la recherche vectorielle, les requêtes structurées et l'orchestration de l'IA cohabitent au sein d'une même plateforme convergée, les agents deviennent plus rapides, plus sûrs et bien plus faciles à gouverner.

L'architecture convergée en pratique

Si l'on compare avec ce qui est disponible sur le marché, le champ des possibilités se réduit rapidement. La base de données Autonomous IA Database d'Oracle, en production depuis huit ans et gérant 90 milliards de requêtes par heure, fait désormais converger la vectorisation, la mémoire d'agent, l'orchestration SQL IA et les vues Duality – qui exposent les données au format SQL ou JSON – de manière native au sein d'une seule plateforme.

Un modèle d'authentification à double jeton garantit qu'aucun agent ne peut accéder aux données sans un contexte utilisateur vérifié. A cette fin, la base de données Autonomous Database d’Oracle est désormais largement déployée sur AWS, Azure et Google Cloud, permettant aux clients d'opérer dans leurs environnements cloud préférés sans sacrifier la fiabilité ni les performances.

Les applications critiques ne sont plus une option

L'approche d'Oracle illustre également une deuxième évolution que les entreprises doivent prendre au sérieux : les charges de travail liées à l'IA deviennent critiques plus rapidement que prévu, et l'infrastructure doit être prête avant que ces charges de travail ne l'exigent.

Oracle a intégré la prise en charge du chiffrement post-quantique dans sa version Oracle Database 26ai, devenant ainsi l'un des premiers fournisseurs de bases de données d'entreprise à le faire. Le fournisseur a également renforcé la résilience de sa pile grâce à Real Application Clusters, Data Guard, True Cache et la récupération Zero Data Loss, précisément parce que les charges de travail des agents ne peuvent tolérer les modes de défaillance que les applications traditionnelles absorbent parfois.

Lorsqu’un agent d’IA gère les interactions avec les clients, achemine les transactions ou pilote des décisions métier automatisées, les temps d’arrêt ne constituent pas un simple problème de « lenteur ». Il s’agit en vérité d’un problème de continuité des activités qui se répercute de manière plus difficile à détecter et à corriger que les défaillances des applications traditionnelles.

Le paysage des cybermenaces accentue encore cette tendance. Les ransomwares sont devenus plus sophistiqués, les exigences en matière de souveraineté des données à l'échelle internationale se multiplient et l'informatique quantique devrait remettre en cause les normes de chiffrement actuelles d'ici à quelques années.

Cela signifie que les décisions prises aujourd'hui par les entreprises en matière d'infrastructure ont des conséquences à plus long terme que ne le prévoient la plupart des analyses architecturales. S'appuyer sur une plateforme qui répond déjà à ces menaces, plutôt que sur une plateforme qui devra rattraper son retard, constitue une réduction significative des risques au niveau de l'entreprise.

Les questions que les entreprises devraient se poser

La question à aborder lors d’une revue d’architecture n’est pas de savoir quel modèle d’IA utiliser, car ce débat est relativement clos. La question la plus difficile et la plus cruciale est de savoir où se trouvent les données par rapport à l’IA, et ce qui se passe lorsque le système doit être disponible en permanence, à grande échelle et avec une traçabilité totale.

Les entreprises qui répondront correctement à cette question s'appuieront sur une infrastructure convergée, axée sur la gouvernance, offrant la fiabilité que leurs charges de travail agentiques finiront par exiger. Elles disposeront d'une solution durable lorsque la vague actuelle d'expérimentation en IA se concrétisera en production. Celles qui ne le feront pas devront procéder à une refonte sous pression, au pire moment possible.

Cette opinion est initialement parue en anglais sur SearchDataManagment.

Pour approfondir sur Infrastructure hyperconvergée