Restyler - stock.adobe.com

IA générative : Google Cloud muscle sa plateforme Vertex AI

Jardins de modèles, fonctionnalités de recherche sémantique, outils de développement supplémentaires, connecteurs, partenariat avec Nvidia… Google Cloud prépare Vertex AI pour tenter de s’imposer dans la course à l’IA générative.

Vertex AI, alors considéré comme un banc de travail pour les projets analytiques d’envergure et d’IA, porte désormais les fanions de l’IA générative.

Lors de Google Cloud Next’23, le fournisseur a entériné le fait que Vertex AI est devenu une plateforme pour développer des applications d’IA générative. Il y a ajouté plusieurs modèles de fondation et de nouveaux outils.

« Nous pensons que mettre l’IA à disposition et utile pour tout le monde est le meilleur moyen de remplir notre mission au cours de la prochaine décennie », avance Sundar Pichai, PDG de Google, lors du keynote d’ouverture de la conférence.

« C’est pourquoi nous investissons dans les outils, les modèles de fondation et les infrastructures à la fois CPU et GPU ».

Selon Chirag Dekate, analyste chez Gartner, les mises à jour présentées hier désignent les voies que le fournisseur de cloud souhaite emprunter pour se différencier dans la course à l’IA générative.

La première d’entre elles consiste à proposer une large collection de modèles de fondations, selon l’analyste. Non seulement, Vertex AI accueille PaLM 2, mais son « jardin de modèles » permettrait de retrouver une centaine de variétés et de déclinaisons, dont celles proposées par les startups Anthropic (Claude 2) et Cohere. GCP oublie toutefois de préciser que ce jardin regorge d’algorithmes de computer vision et de NLP, dont ResNet et BERT.

Comme ses concurrents, Google Cloud annonce l’hébergement des collections Llama 2 et Code Llama, les deux projets d’envergure de Meta AI (ex Facebook AI Research), ainsi que de Falcon, le grand modèle de langage entraîné par le Technology Innovation Institute, un laboratoire financé par le gouvernement d’Abu Dhabi. Depuis Vertex AI, les entreprises peuvent exploiter des techniques de fine-tuning et d’apprentissage par renforcement pour adapter les modèles à leur contexte et leurs données.

Innovation ouverte et choix, deux nécessités bien comprises par les fournisseurs cloud

Selon Steven Dickens, analyste pour le cabinet Futurum Group, le choix de Google d’inclure des modèles ouverts démontre l’importance de l’open source dans la course à l’IA générative.

« La puissance du développement open source va l’emporter sur tout ce qu’un fournisseur peut faire de son côté », déclare-t-il.

Andy Thurai, analyste chez Constellation Research explique de son côté que la communauté des spécialistes du machine learning et de l’IA est portée par l’open source et le partage de technologies. Sans cela, l’élaboration de nouveaux modèles peut être éprouvante, juge-t-il.

« Ce n’est pas pour rien que Hugging Face est si populaire », avance Andy Thurai, citant la célèbre plateforme de partage de modèles et de techniques d’IA.

Il faut toutefois prendre les propos de ces analystes avec des pincettes concernant l’open source. Ce qu’Andy Thurai et Steve Dickens décrivent correspond à la notion d’innovation ouverte. Si une bonne partie de la communauté IA est bien attachée à l’open source, les grands groupes – au vu de l’effervescence autour de l’IA générative – placent des garde-fous pour éviter les problèmes judiciaires à l’avenir ou pour ne pas se faire dépasser par leurs concurrents.

Par exemple, quand Falcon dispose bien d’une licence Apache 2.0, respectueuse des principes édifiés par l’Open Source Initiative, Llama 2 et Code Llama dépendent d’une licence propriétaire permissive.

Peu importe. Si l’apport de modèles ouverts est essentiel, la stratégie consistant à fournir différents types de modèles confère du choix aux entreprises, selon Chirag Dekate.

Elle n’est pas l’apanage de Google Cloud. AWS, Microsoft Azure et d’autres proposent une multitude de collections de LLM.

Les organisations peuvent ainsi comparer les modèles et déterminer celui ou ceux qui sont les plus adaptés à leurs cas d’usages.

« En fin de compte, le plus grand modèle n’apporte pas forcément la bonne réponse », note l’analyste de Gartner. « Dans de nombreux cas, des LLM plus petits et plus spécifiques s’avèrent mieux adaptés aux problèmes à résoudre au sein d’une entreprise ».

Dans cette veine, rappelons que Google a décliné PaLM 2 pour les domaines de la recherche médicale (Med-PaLM 2) et la cybersécurité (Sec-PaLM 2).

Google Cloud enrichit ses modèles

PaLM 2 bénéficie également d’une mise à jour. Le modèle peut désormais être utilisé dans 38 langues différentes, tandis que Google a allongé sa fenêtre de contexte à 32 000 tokens, pour égaler celle de GPT-4. Selon les porte-parole de GCP, cela permet de saisir un livre en anglais d’environ 80 pages.

Par ailleurs, le modèle de diffusion Imagen, la réponse de Google à Stable Diffusion et à Midjourney, dispose d’une nouvelle fonctionnalité : Style Tuning for Imagen. Selon le géant du cloud, celle-ci permet de guider le modèle afin de générer des images conformes à l’identité d’une marque après lui avoir proposé dix visuels en exemple. Les usagers pourront apposer un filigrane numérique sur les images générées à l’aide de la technologie SynthID.

Extensions contre plug-ins

Le fournisseur introduit également Vertex AI Extensions, une suite de connecteurs vers les bases de données NoSQL DataStax et MongoDB pour retrouver « en temps réel » des représentations vectorielles de données qu’une entreprise souhaiterait exploiter pour affiner les résultats d’un modèle d’IA générative. Les extensions correspondent également à des API vers des applications tierces.

Toujours d’après GCP, les développeurs peuvent également concevoir leurs propres extensions afin de connecter les LLM à des assistants, des moteurs de recherche d’entreprise, des flux de travail, etc.

Il faut ajouter à cela des connecteurs vers BigQuery, AlloyDB ainsi que le framework LangChain.

Les extensions sont similaires à ce que propose Microsoft avec ses agents et ses plug-ins, selon Chirag Dekate. En début d’année, Microsoft a donné aux développeurs l’accès à des plug-ins qu’ils peuvent connecter à des applications grand public et professionnelles.

« [En matière d’IA générative], Google réfléchit méthodiquement à ce que pourrait être un écosystème durable », estime l’analyste de Gartner.

Ce serait d’ailleurs la bonne voie pour préserver la confidentialité des données de ses clients, ajoute-t-il. Pour rappel, plusieurs articles de recherche ont porté des doutes contre l’impossibilité de reconstruire des données converties en vecteurs. Certains d’entre eux ont même pu reconstituer environ 70 % d’un corpus utilisé en entrée d’un LLM.

Recherche sémantique et agent conversationnel

 Avant cela, il faut compter sur la disponibilité immédiate de Vertex AI Search et Conversations.

Ces fonctionnalités ont été précédemment dévoilées en avant-première sous le nom d’Enterprise Search on Generative AI App Builder et Conversational AI on Generative AI App Builder.

La fonction de conversation coordonne la création de chatbots et de voicebots réalistes, propulsés par des modèles de fondation. Les entreprises peuvent affiner l’agent conversationnel avec des données provenant de sites web, de documents, de FAQ, d’e-mails ainsi que de l’historique des conversations des agents.

Vertex AI Search permet, lui, de déployer des capacités de recherches multimodales pour retrouver par exemple des images et leurs légendes, un article de recherche et ses annexes, etc. L’aspect « multitour » décrit la possibilité de l’outil à converser le contexte de recherche et à affiner les réponses en fonction de la demande des utilisateurs. Ce service semble comparable à Amazon Kendra.

Les entreprises peuvent contrôler les résultats ou les utiliser pour affiner les sorties du modèle de fondation sous-jacent, explique Google.

AI Search semble tirer parti de Vertex AI Matching Engine, une base de données vectorielle qui serait plus performante qu’AlloyDB, selon la documentation du fournisseur.

Les TPU ne suffisent plus : Google Cloud renforce son partenariat avec Nvidia

Outre l’élargissement de son écosystème de modèles, Google se concentre sur ses partenariats.

Le principal d’entre eux est un partenariat élargi avec Nvidia. Le partenariat comprend le lancement public prévu le mois prochain du supercalculateur A3 de Google, basé sur les GPU H100 de Nvidia.

En outre, Nvidia DGX Cloud, un « supercalculateur à la demande », pourra désormais être utilisé sur GCP. De son côté, Google a optimisé PaxML (son framework de développement de LLM) pour les GPU Nvidia.

Les deux partenaires travaillent également à l’intégration future des serveurs DGX GH200, basés sur la puce Grace Hopper.

Le partenariat de Google avec Nvidia n’est pas surprenant en raison du rôle de leader incontesté de Nvidia sur le marché du hardware consacré à l’IA, selon Steven Dickens.

« Tout le monde va devoir s’associer à Nvidia », anticipe-t-il. « Ils sont pratiquement les seuls en ville pour les six prochains trimestres, jusqu’à ce que tout le monde rattrape son retard ».

Si les GPU de Nvidia dominent le marché, les accélérateurs TPU (Tensor Processing Units) de Google apportent tout, même de la valeur, selon M. Dekate.

Les TPU v5e sont désormais disponibles en préversion et offre une intégration avec Google Kubernetes Engine, Vertex AI et des frameworks tels que PyTorch, Jax et TensorFlow. Google affirme que les instances équipées des TPUv5e offrent de meilleures performances que les versions précédentes au moment d’entraîner et d’inférer des LLM et des modèles d’IA.

Grands comptes et startups commencent à tester Vertex AI

Des startups telles que AI21 Labs entraînent également leurs modèles à l’aide de TPU.

Pour certaines organisations, l’utilisation des TPU pourrait être une meilleure option, car les processeurs sont rentables, note Chirag Dekate.

« Cela réduit le coût d’entrée pour les startups comme AI21 Labs qui veulent innover », avance-t-il.

En ce qui concerne les clients, Google prétend que des organisations telles que Bayer, Fox Sports et GE Appliances déploient les technologies d’IA générative de Google.

Par exemple, Bayer exploite Vertex AI Search et Med-PaLM 2, selon le fournisseur.

« Ce secteur mûrit plus vite qu’on ne peut l’imaginer, mais les entreprises commencent maintenant à voir émerger de nombreuses capacités différenciées. »
Chirag DekateAnalyste, Gartner

GE Appliances compte se servir de Vertex AI pour offrir aux utilisateurs une fonction appelée Flavorly AI. Flavorly AI générera des recettes personnalisées basées sur les aliments qui se trouvent dans les cuisines des usagers. L’entreprise prévoit par ailleurs de proposer SmartHQ Assistant, un chatbot qui répond aux questions des consommateurs sur leurs appareils enregistrés.

L’éditeur SIRH Workday adopte une approche hybride en construisant ses propres modèles tout en travaillant avec les LLM de Google, selon le cofondateur et co-PDG, Aneel Bhusri.

Les entreprises devraient bénéficier de ce que Google ainsi que ses rivaux Microsoft et AWS font avec l’IA générative, anticipe l’analyste de Gartner

« Les fournisseurs travaillent dur pour améliorer leurs offres, ce qui signifie que les entreprises perçoivent un rythme d’innovation soutenu », affirme Chirag Dekate.

« Ce secteur mûrit plus vite qu’on ne peut l’imaginer, mais les entreprises commencent maintenant à voir émerger de nombreuses capacités différenciées », conclut-il.

En clair, les organisations doivent appréhender la pile technologique qui se dessine devant leurs yeux et faire le tri parmi les solutions que les fournisseurs tentent d’imposer.

Pour approfondir sur Intelligence Artificielle et Data Science

Close