Cet article fait partie de notre guide: Les annonces clés d’AWS re:Invent 2023

Avec Amazon Q, AWS s’attaque aux Copilot de Microsoft

À l’instar de ses concurrents, AWS mise beaucoup sur l’IA générative. Il entend prouver que Microsoft n’a pas le monopole de l’assistant NLG.

Nouvelles puces, partenariat d’envergure avec Nvidia, améliorations de la plateforme Bedrock, etc. Lors de la conférence principale, Adam Selipsky, PDG d’AWS, a longuement évoqué la feuille de route du géant du cloud en matière d’IA générative.

Mais avant de revenir en détail sur les évolutions de l’infrastructure et des services PaaS consacrés au développement de l’IA générative, l’annonce la plus importante d’AWS en la matière n’est autre que la préversion d’Amazon Q.

Tout comme les Copilot chez Microsoft, cet assistant propulsé par de grands modèles de langage est décliné en produits distincts.

« Ce que les premiers fournisseurs de cet espace ont fait est passionnant, et c’est vraiment très utile pour les consommateurs », affirme Adam Selipsky, PDG d’AWS lors de sa présentation, faisant référence à ChatGPT d’OpenAI, partenaire de Microsoft, le rival d’AWS, et à Bard de Google.

Adam Selipsky assure que les autres applications de chat disponibles sur le marché ne sont pas adaptées aux entreprises et ne répondent pas aux préoccupations en matière de sécurité et de confidentialité des données.

Amazon Q, elle, est une gamme d’assistants alimentés par l’IA générative, conçus pour « travailler pour vous au travail », selon AWS.

Pour autant, le numéro 1 du cloud n’est pas le premier de son secteur à proposer des fonctionnalités d’assistance « Gen AI » ciblant les entreprises. Google Cloud et plus récemment Microsoft ont effectué des annonces en ce sens.

Amazon Q : l’IA générative infuse les services IT et métiers d’AWS

Quoi qu’il en soit, les clients d’Amazon peuvent utiliser Q pour obtenir des réponses à leurs questions, générer du contenu et rationaliser les tâches, selon le fournisseur de cloud.

Il y a d’abord la préversion d’Amazon Q dans QuickSight, la plateforme BI d’AWS. En effet, ce produit au nom disgracieux dans la langue de Molière (mais cinématographique dans la langue de Shakespeare) est une évolution de QuickSight Q, un système NLU/NLP pour interroger les données et les rapports dans la plateforme BI.

« Amazon Q extrait des données et des statistiques à partir de visuels sélectionnés, puis utilise de grands modèles de langage (LLMs) pour construire une histoire en plusieurs parties. »
Donnie PrakosoPrincipal developer advocate, AWS

La préversion d’Amazon Q pour QuickSight propose trois fonctionnalités. Stories permet aux métiers et aux business analysts de générer des infographies enrichies de texte en langage naturel. Il suffit de sélectionner un visuel dans un tableau de bord, puis de demander une explication ou une analyse qui peut être ajustée manuellement. L’outil s’inscrit là dans la pure tradition du data storytelling. « Amazon Q extrait des données et des statistiques à partir de visuels sélectionnés, puis utilise de grands modèles de langage (LLMs) pour construire une histoire en plusieurs parties, en examinant ce que les données peuvent signifier pour l’entreprise et en suggérant des idées pour atteindre des objectifs spécifiques », explique Donnie Prakoso, Principal developer advocate chez AWS, dans un billet de blog.

Le résumé exécutif (executive summaries) permet, lui, d’extraire et d’expliquer automatiquement les indicateurs clés les plus pertinents dans un tableau de bord.

Enfin, la « nouvelle expérience Q&A » reprend les capacités NLQ de QuickSight Q pour les simplifier et les étendre. Le système permet d’impétrer plus facilement les questions vagues et offre des « réponses alternatives », en clair des recommandations qui pourraient répondre aux interrogations de l’utilisateur. Amazon Q s’appuie sur les données internes aux tableaux de bord et aux rapports, pour faire resurgir les visuels les plus intéressants.

Amazon Q sera intégré dans RedShift et AWS Glue pour simplifier l’écriture de requêtes SQL et de jobs ETL.

L’assistant infuse également Amazon CodeCatalyst, conçu pour automatiser les pipelines CI/CD en simplifiant les intégrations entre les outils. Dans CodeCatalyst, Amazon Q peut être utilisé pour générer du code, des flux de travail, produire un résumé des changements du code dans un dépôt, générer des tests unitaires et de classes ou encore pousser des suggestions pour corriger les issues.

Si la suggestion est intéressante, le développeur peut l’approuver. La solution sera automatiquement placée dans une branche, puis dans un pull request qui sera placé en revue.

Amazon Q Code Transformation, elle, est une fonctionnalité visant à simplifier la migration de Java 8 ou 11 à Java 17. Avec les grands changements en cours dans l’écosystème Java, le passage d’une version LTS à une autre est devenu plus compliqué. Code Transformation exploite les modèles LLM pour assurer cette conversion. En interne, des ingénieurs d’AWS ont migré 1 000 applications de Java 8 à Java 17 en deux jours.

Amazon Q sera également intégré à l’IDE et à la console de gestion d’AWS. Cela permettra d’obtenir des conseils et des informations sur l’utilisation, l’optimisation ou le dépannage des services AWS.

L’assistant n’est pas seulement infusé dans les outils de développement et de gestion de données. Le géant du cloud prévoit également de l’intégrer dans ses outils métiers.

Dans Amazon Contact Center, Q remplace Amazon Connect Wisdom. Le précédent outil utilisait déjà le speech to text et le NLP pour transcrire les appels, puis effectuer de l’analyse de sentiments, mais aussi des mécanismes de recherche sémantique pour trouver les documents nécessaires afin de répondre aux demandes des clients.

Ici, les modèles NLG nichés dans le service Amazon Bedrock sont orchestrés pour générer un résumé d’un échange téléphonique, mais aussi afficher les analysés préalablement disponibles.

Amazon Lex dispose des mêmes capacités pour réserver des créneaux ou des places. Surtout, Amazon Connect Customer Profiles exploite plusieurs LLMs pour créer des mappings de données servant à créer des profils clients unifiés après avoir connecté des sources, dont S3, Adobe Analytics, Salesforce, ServiceNow et ZenDesk.

D’ailleurs, Amazon Q ne sera pas exclusivement intégré aux services AWS. Sa version business expert permettra de se connecter à plus de 40 sources de données, dont Gmail, Slack, Atlassian, Google Drive… et Microsoft 365. L’outil sera configurable aux couleurs de l’entreprise, indexera « automatiquement » les données et documents que l’entreprise souhaite interroger dans une base de données vectorielle sous-jacente. L’application utilisera le pattern RAG pour contextualiser les réponses de Q.

Une réponse méthodique aux concurrents du cloud

Comme souvent, les « Pizza Teams » d’AWS ont commencé à développer des fonctions d’IA générative de leur côté. Voyant la tendance autour de ce sujet, le géant du cloud a mutualisé les efforts en mettant en place un framework dont le cœur n’est autre que la plateforme Amazon Bedrock. Puis, il a développé une marque ombrelle – Amazon Q, à l’instar de Copilot ou d’Einstein Copilot – qui regroupe deux offres.

La première offre, proposée au même prix que ChatGPT Plus (20 dollars par mois par utilisateur), se nomme Amazon Q for Business. La seconde, Amazon Q for Builder, cible plus particulièrement les développeurs et les architectes cloud, est proposé à partir de 25 dollars par utilisateur par mois.

« C’est une façon de montrer qu’ils [AWS] aident les clients à bénéficier de l’IA générative dans le cadre des produits et services offerts par AWS », avance Jim Hare, analyste chez Gartner.

Bien qu’Amazon Q soit similaire aux assistants Microsoft Copilot et Google Duet, ces produits doivent répondre à un besoin des clients d’AWS, à savoir un chatbot qui peut être intégré et infusé dans d’autres produits et services AWS, poursuit Jim Hare.

« Le fait que ce type de système conversationnel ait été intégré dans une variété de parties et de services différents qui aident [divers] rôles à améliorer leur productivité et à obtenir des informations pour générer du contenu, je pense que c’est une étape importante », poursuit l’analyste de Gartner.

En outre, l’utilisation de cette capacité avec des applications tierces, telles que Slack et Salesforce, et l’indexation ou l’extraction des informations de ces applications pour les rendre disponibles à la recherche seront essentielles pour les clients qui cherchent des alternatives à Microsoft et Google, souligne-t-il.

« C’est comme si vous aviez besoin d’un ou deux développeurs de moins par projet ».
R « Ray » WangFondateur et analyste, Constellation Research

Entre-temps, certaines entreprises qui utilisent une version bêta d’Amazon Q améliorent leur productivité, selon le fondateur et analyste de Constellation Research, R « Ray » Wang.

Par exemple, des développeurs d’Amazon.com et de la société IT Persistent Systems ont constaté qu’Amazon Q avait permis à Persistent Systems d’accélérer son cycle de programmation d’un tiers.

« C’est énorme », considère R. Wang. « C’est comme si vous aviez besoin d’un ou deux développeurs de moins par projet ».

De plus, l’intégration d’une fonction de chat dans l’environnement de développement, avec la possibilité non seulement de fournir des réponses aux requêtes, mais aussi de résoudre les erreurs à l’aide de modèles linguistiques, est un atout pour les utilisateurs d’AWS, selon l’analyste de Constellation Research.

Il est également utile que Q ne fonctionne pas sur le grand modèle de langage GPT-4 d’OpenAI, surtout après le récent remaniement de la direction de la startup d’IA, renchérit Jim Hare.

« Ils utilisent d’autres modèles qui correspondent mieux aux cas d’usage », avance-t-il. « Le fait qu’AWS offre un choix de modèles différents leur donne cette flexibilité que les fournisseurs “monomodèle” n’ont pas ».

Un choix à opérer

Si les primoadoptants constatent qu’il est intéressant de tester plusieurs grands modèles de langage, une seule collection de modèles – par exemple Llama 2 – peut suffire.

De fait, GPT-4 tout comme Llama 2 ne désigne pas en premier lieu un modèle, mais une collection. Dans certains cas, ces collections sont obtenues en distillant le savoir d’un LLM décliné dans une version plus compacte. Tous les acteurs n’ont pas forcément recours à cette technique, ce qui signifie que deux modèles d’une même collection peuvent être sensiblement différents. Tout comme Dataiku, AWS brandit l’argument d’une possible captivité en faveur d’une approche multicollection, mais n’est-ce pas également un risque inhérent au cloud ?

Il n’empêche que les clients et les partenaires d’AWS rencontrés par LeMagIT sont intéressés (au pire curieux) des apports de l’IA générative. Le géant du cloud entend offrir un maximum de choix de services et d’approches. Ce sont les organisations qui devront déterminer s’il est plus intéressant techniquement et financièrement d’opter pour Amazon Q que pour un modèle propulsé à l’aide de Bedrock ou de SageMaker.

Pour approfondir sur Intelligence Artificielle et Data Science

Close