Amazon Quick : AWS réitère son offensive contre Microsoft Copilot
Le géant du cloud a présenté plusieurs évolutions de ses produits propulsés à l’IA. Outre le rapprochement avec OpenAI, Amazon Quick doit concurrencer davantage Microsoft Copilot et Gemini pour Workspace.
Au lendemain de l’annonce de l’amendement du partenariat entre Microsoft et OpenAI, la maison mère d’Amazon a annoncé le 28 avril la disponibilité en préversion limitée des modèles d’OpenAI, de son IDE agentique Codex et de ses agents managés dans Bedrock, la suite de services AWS consacrés à l’IA générative.
GPT-5.5 débarque déjà sur Amazon Bedrock (OpenAI Frontier attendra)
Jusqu’alors, AWS hébergeait les modèles open weight d’OpenAI, les GPT-OSS. Les deux partenaires n’ont pas listé tous les LLM, mais GPT-5.4 et GPT-5.5 seront de la partie.
« C’est un enjeu majeur pour les clients », a affirmé Andy Jessy, CEO d’Amazon, lors de la présentation des résultats du 1er trimestre fiscal 2026. « Avec Bedrock, nous exploitons massivement les modèles d’IA dont nous disposons : Anthropic, Llama, Mistral et bien d’autres encore. Mais ce qu’on constate sans cesse avec toutes les technologies – que ce soit pour les bases de données, l’analyse de données, les modèles ou encore les puces, d’ailleurs –, c’est que les clients veulent avoir le choix », répète-t-il.
Ce n’est qu’une première étape avant la disponibilité de la suite Frontier d’OpenAI sur AWS, une plateforme dédiée à l’orchestration et la gouvernance d’agents IA.
Mais le gros des travaux engagés par AWS porte sur les évolutions d’Amazon Quick.
Amazon Quick arrive sur Desktop
Pour rappel, Amazon Quick – ex-Amazon Q Business – est l’équivalent de Microsoft Copilot, Claude Cowork ou Gemini pour Workspace. AWS a été l’un des premiers à miser sur l’intégration de sources de données diverses et variées, dont les outils tiers, dans son assistant IA.
D’abord, Quick a le droit à de nouveaux connecteurs pour Google Workspace, Microsoft Teams, Zoom, Airtable et Dropbox. À la manière de Claude Canvas d’Anthropic et de Microsoft Copilot avec PowerPoint, l’assistant peut créer des présentations, des infographies et des images. Les résultats peuvent être des fichiers Word, PDF, PowerPoint et Excel. La création de visuels est pour l’instant en préversion dans les régions US East et US West d’AWS.
En préversion, Quick dispose d’une application desktop (macOS, Windows) capable de se connecter aux fichiers locaux, au calendrier et aux outils de communications installés. Selon AWS, cela permet de compléter des feuilles de calcul avec des données transmises par des collaborateurs depuis Slack puis de générer une présentation à envoyer par mail ou mettre de côté pour un rendez-vous sur Zoom, que l’outil peut aider à planifier.
Des extensions existaient déjà pour Excel, Word, PowerPoint et les navigateurs de recherche (Chrome, Firefox, Safari).
Mais il sera également possible de créer des applications Web en langage naturel. Il s’agit par exemple de créer des applications de revision des pipelines de ventes en extrayant les données d’un CRM ou d’agrégation des données financières dispersés dans différents systèmes. Cette fonctionnalité est pour l’instant en préversion.
AWS peut désormais fournir un essai gratuit d’un mois pour 25 utilisateurs maximum. Les forfaits Business et Enterprise sont facturés 20 dollars et 40 dollars par mois par utilisateur. Les fonctions de recherche profonde et agentiques préintégrées (Quick Research, Flows) sont limitées à quelques heures (2 ou 4 heures par utilisateur par mois). Le stockage d’index est limité à 25 ou 50 Go pour chaque siège. Au-delà, il faut payer un supplément.
Une stratégie similaire à Google Cloud
Selon les dirigeants d’AWS, Amazon Quick est utilisé par plus de 500 000 des 1,5 million de collaborateurs chez Amazon. Andy Jassy, lui, affirme que le nombre de clients aurait quadruplé par rapport au trimestre précédent, sans qu’il renseigne de chiffres exacts. AstraZeneca BMW, DXC Technology (115 000 employés équipés), Southwest Airlines, la NFL, 3M et Mondelez seraient parmi les grands clients.
Alors que Microsoft a porté sa licence E7 incluant Copilot et les fonctions d’IA agentique à 99 euros par siège par mois, AWS tente de grappiller des parts de marché à la firme de Redmond. Comme Google qui a fait le pari d’inclure ses agents IA dans Workspace avant Microsoft. Copilot peut toujours être acheté séparément à 30 euros par mois par siège.
Chez Google Cloud, Anthony Cirot, Vice-président EMEA sud et dirigeant par intérim de GCP France, a signalé auprès des journalistes français que l’entreprise a convaincus des grands groupes « déçus par d’autres technologies dans l’environnement de travail ». S’il a utilisé le pluriel, il visait plus particulièrement Microsoft (les offres 365 ont facilité les déploiements). AWS veut faire la même chose et n’a cessé de répéter pour se différencier que sa solution n’est pas rattachée à une suite collaborative.
Malgré ces désirs, Microsoft continue de dominer le jeu. Lors des résultats du troisième trimestre fiscal 2026, Satya Nadella a revendiqué plus de 20 millions de sièges d’entreprises payants pour Copilot, dont 740 000 rien que chez Accenture. L’usage global aurait augmenté de près de 20 % par rapport au trimestre précédent. Quand AWS revendique 15 milliards de dollars d’ARR généré par l’IA, Microsoft assure que le sien dépasse les 37 milliards de dollars.
De son côté, AWS cherche clairement à convaincre ses grands comptes qui ont opté pour Amazon Bedrock pour bâtir leur Secure GPT.
Lors de l’annonce du premier trimestre fiscal 2026, Andy Jassy a évoqué les 125 000 clients d’Amazon Bedrock, dont près de 80 % du Fortune 100. Si le dirigeant ne précise pas leur niveau d’engagement, ils auraient augmenté leur dépense de 170 % par rapport au trimestre précédent.
D’autant que les dirigeants d’AWS aimeraient, comme ceux de Google Cloud avec Gemini Enterprise Agent Platform, qu’Amazon Quick devienne l’interface privilégiée pour des systèmes bâtis sur Bedrock et le framework agentique AgentCore.
Or, certaines plateformes « maison » bâties avec les briques d’AWS recoupent déjà les fonctionnalités présentées plus haut. Le problème affecte également Microsoft et GCP. Tous estiment toutefois pouvoir proposer des solutions qui limitent la multiplication des outils utilisés par quelques personnes. Ce phénomène a été favorisé par les entreprises au nom de l’adoption. Comme la GenAI n’a plus à faire ses preuves et que les coûts grimpent, les hyperscalers tiennent là un filon à exploiter. Ils devront toutefois maintenir les promesses d’interopérabilité. Au risque, ils le savent, d’essuyer des refus.
