AWS Re:Invent 2025 : Le stockage S3 devient compatible avec les IA
Le service de stockage en mode objet S3 se pare d’un nouveau type de bucket, le S3 Vectors, qui référence des informations d’un document avec des coordonnées vectorielles. Dans les projets d’IA, cela évite de payer pour une base vectorielle allumée en permanence.
S3, le service cloud de stockage en mode objet d’AWS, est désormais capable de contenir des données vectorisées, soit le format dont une IA générative a besoin pour produire des analyses depuis les documents internes d’une entreprise ; une pratique appelée le RAG. Et parce qu’il n’est plus nécessaire de stocker ces vecteurs dans une base de données dédiée, les utilisateurs de services d’IA d’AWS pourraient économiser jusqu’à 90% des coûts de mise en œuvre d’un RAG, dit l’hyperscaler.
« Faire tourner une base de données vectorielle coûte de l’argent. Parce qu’il faut louer un serveur pour exécuter cette base de données 24 heures sur 24 et également louer du stockage rien que pour elle. En passant les vecteurs dans S3, on bascule en mode serverless : le client est simplement facturé que pour le stockage S3 qu’il a déjà, plus uniquement lors des accès aux vecteurs via une API. C’est radicalement moins cher », lance Sébastien Stormacq, porte-parole des développeurs chez AWS.
Cette annonce, faite lors de l’événement AWS Re:Invent 2025 qui se tient cette semaine à Las Vegas, va de pair avec celle d’un nouvel accès S3 pour le service de stockage FSx for OnTap, lequel sert d’extension chez AWS pour les baies NAS de NetApp installées en entreprise. En clair, les clients d’un NAS OnTap qui ont souscrit à ce service chez AWS, sont désormais à quelques clics de souris à peine de pouvoir faire travailler une IA en ligne sur les documents qu’ils produisent sur site.
Un processus en deux temps
Attention, le service de stockage S3 ne convertit pas tout seul les documents en vecteurs. « L’utilisateur passe par Bedrock Knowledge Bases, notre service qui permet d’ingérer des documents pour les livrer à des moteurs d’IA. Cela se déroule en deux temps : d’abord on y ingère des documents pour les convertir en vecteurs avec un moteur dédié, ensuite on y ingère les vecteurs pour les utiliser en production avec une IA », résume Sébastien Stormacq, en précisant que Bedrock Knowledge Bases est donc bien un service payable uniquement à l’usage.
Il explique de manière très détaillée toute la procédure à suivre dans un billet de blog particulièrement instructif. Il est aussi possible de consulter une documentation pour comprendre comment l’ensemble fonctionne.
Le point de départ est que les vecteurs doivent être dans un bucket dédié, du nouveau type S3 Vectors, à créer dans l’espace de stockage S3. On passe ensuite sous Bedrock Knowledge Bases (d’autres interfaces sont possibles, comme la ligne de commande AWS). On y indique comme source un bucket S3 traditionnel (éventuellement lié à un service de stockage NetApp). Il lit tous les fichiers contenus dans ce bucket et les fragmente en chunks. Les chunks sont des morceaux qui paraissent le moins divisibles. Dans un document formaté en HTML, par exemple, il s’agira du texte entre deux balises.
Puis, on demande ensuite à un LLM de créer des métadonnées à partir de ces chunks (ses mots-clés, le nom du fichier parent, son emplacement dans le fichier parent...) et d’enregistrer ces métadonnées à des coordonnées qui les situent les unes par rapport aux autres : ce sont les vecteurs.
Passer de la recherche par mots-clés à la recherche sémantique
« L’intérêt des vecteurs est qu’ils permettent à une IA de faire une recherche sémantique, selon le sens, la signification. Sans eux, on ne peut faire qu’une recherche par mots clés. Or, avec des mots clés, il est impossible de faire le rapprochement entre la tour Eiffel et Paris, car ce sont des mots différents. Avec des vecteurs, ces deux informations sont enregistrées à des coordonnées proches (par un LLM qui a déjà été entraîné pour savoir que ce sont des informations proches), donc l’IA saura qu’elles sont en rapport », dit Sébastien Stormacq.
Qu’il s’agisse d’une base de données vectorielle ou du bucket S3 Vectors, les informations sont en effet enregistrées dans un tableau, avec des coordonnées dans ce tableau. Sauf que, ici, le tableau n’a pas seulement deux dimensions, comme dans Excel, il peut en avoir 1024. Chaque dimension correspond à un sens. Ce système de coordonnées, qui peut être cartésien (axes perpendiculaires) ou trigonométrique (avec des angles plus ou moins prononcés) est défini en amont, au moment de la création du bucket S3 Vectors.
« Plus il y a de dimensions possibles, plus le vecteur est grand, plus l’IA sera précise. En revanche, plus le vecteur est grand, plus cela coûte en stockage », ajoute Sébastien Stormacq, qui précise que l’on peut, pour chaque chunk, enregistrer 50 métadonnées dans S3 Vector. Il est à noter que S3 Vector ne stocke pas le document source, ni même ses chunks. Les vecteurs servent juste à retrouver une information qui, elle, est toujours dans un bucket S3 traditionnel.
Mais si S3 Vectors représente une opportunité économique par rapport aux bases vectorielles, il ne les remplace pas pour autant à 100%. « S3 est un service conçu pour des données froides, avec des accès de 100 millisecondes. Dans certains projets d’IA, cette latence n’est peut-être pas acceptable. L’accès sera nécessairement plus rapide avec un serveur virtuel faisant tourner une base de données vectorielle », conclut Sébastien Stormacq.
