
alphaspirit - stock.adobe.com
Avec Gemini, Google veut rappeler qu’il est le patron du « Search »
Face à OpenAI et Perplexity, le géant du cloud et de la recherche poursuit son objectif d’infuser l’IA générative dans l’ensemble de sa pile technologique, en commençant par son moteur de recherche.
Alors que les rivaux de l’IA générative commencent à éroder son contrôle de longue date sur la recherche, Google a présenté mardi de nouvelles capacités à travers sa pile logicielle. Il a élargi les capacités associées à ses modèles Gemini, en commençant par les infuser dans son moteur de recherche.
« Nous sommes au stade où des décennies de recherche en IA imprègnent la réalité », a déclaré Sundar Pichai, PDG de Google, lors du keynote de Google I/O, la conférence annuelle des développeurs Android.
La refonte de son service de recherche est une décision qui semble motivée par le succès précoce de concurrents tels qu’OpenAI et Perplexity. Ces acteurs ont réussi à marquer les esprits face au géant qu'est Google.
« AI Overviews » : l’IA générative s’impose dans les résultats de Google
Après avoir testé le mode IA (AI Mode) dans Search en début d’année, Google s'apprête à le déployer aux États-Unis. Avec AI Mode, un LLM répond aux demandes des internautes en s'appuyant sur les résultats de recherche. Ce module apparaîtra désormais dans Search et dans l’application mobile Google. L’AI Mode intègre aussi une extension Deep Search qui doit amplifier les résultats de recherche et les enrichir.
En outre, le fournisseur infuse une version personnalisée de son modèle Gemini 2.5 dans Search, aux États-Unis. Cette fois-ci, il s'agit d'améliorer les « aperçus d’IA » (AI Overviews). Ces aperçus sont des résumés générés qui condensent les informations issues des résultats. Un résumé apparaît tout en haut de la première page affichée par le moteur après l'avoir interrogé. Ces « AI Overviews » sont dorénavant disponibles dans plus de 200 pays et territoires, a indiqué le géant du cloud. Ce service n’est pas disponible en France, mais il suffit de traverser la Manche pour le tester.
En outre, Google entend ajouter les capacités de son agent multimodal Project Astra dans Search à travers une fonctionnalité nommée Gemini Live. Les utilisateurs pourront échanger à la voix avec Search sur ce qu’ils voient en temps réel à travers leur appareil photo.
La refonte de Google Search fait suite à des spéculations selon lesquelles la montée en puissance des modèles de Perplexity et d’OpenAI, menés par ChatGPT, pourrait renverser le leader de la recherche. Cependant, ce n’est pas le cas, du moins pas encore, selon Chirag Dekate, analyste chez Gartner.
« Malgré tout, ce que les faits montrent clairement, c’est que nous constatons tous une plus grande dépendance à l’égard de la recherche infusée par l’IA », déclare-t-il. « C'est aussi vrai dans l'écosystème de Google ».
Le référencement en jeu
Les entreprises, en particulier celles qui veulent utiliser le référencement, devront transformer leurs stratégies, prévient l’analyste. Cela signifie que certaines organisations pourraient devoir s’associer à Google pour déterminer ce que signifient une stratégie de marketing et une stratégie de référencement à l’ère d’AI Overviews.
« Il y a une notion implicite de résumés dignes de confiance, et cela signifie également que cela permet aux entreprises de nouvelles voies de marketing et d’optimisation de la recherche », anticipe Chirag Dekate.
Cependant, il est peu probable que le modèle de référencement soit perturbé par cette évolution. Il y a toutefois de grande chance que Google modifie (un peu) son modèle publicitaire, selon Alan Pelz-Sharpe, fondateur de Deep Analysis.
« La vente de publicité est l’activité principale de Google », rappelle Alan Pelz-Sharpe. « C’est sa source de revenu principale, et il est donc possible qu’il prépare un modèle commercial associé ».
Mais Google doit encore être un peu plus clair sur son objectif avec AI Mode, selon Mark Beccue, analyste chez Enterprise Strategy Group, une filiale d’Omdia. Alors que le groupe a déclaré que Gemini n’en est qu’à ses débuts en matière d’aperçus de résultats par l’IA, sa stratégie à long terme en matière de recherche n’est pas claire, ajoute-t-il.
« Où va la recherche ? Allons-nous vers un assistant personnel ? Comment l’entreprise l’envisage-t-elle ? », s’interroge-t-il.
Le rythme rapide de l’innovation dans le domaine du « Search » offre un potentiel considérable. Les produits qui émergeront seront utiles pour les entreprises et les consommateurs, anticipe Alan Pelz-Sharpe. Mais des doutes subsistent.
« Les grandes questions seront toujours les suivantes : quel est le degré d'hallucination ? Est-ce que lorsqu’on creuse un résultat, l’on perd en précision ? », s’interroge-t-il.
Gemini comme un « modèle monde » et un assistant universel
Ce qui est clair concernant Gemini, c’est que Google veut faire de son assistant un système universel. Une sorte de « modèle monde ». Il sera capable de planifier et d’imager de nouvelles expériences à la manière d’un humain.
L’idée que Google se fait d’un modèle monde diffère de celle de Nvidia, qui en a lancé le sien l’année dernière. Alors que Nvidia envisage d’appliquer un modèle monde à l’IA physique et à la robotique, Google les considère comme des assistants personnels, selon Chirag Dekate.
« Il s’agit de personnaliser cet assistant en fonction de votre contexte spécifique et du mien », comprend l’analyste. « Ces deux contextes d’exploitation peuvent se croiser, mais ils ont des contraintes et des principes d’exploitation complètement différents ».
Outre la création d’un assistant personnel, Google a également présenté de nouveaux modèles de génération d’images et de vidéos, Veo 3 et Imagen 4. Veo 3 peut désormais générer des vidéos avec du son. Pour rappel, il avait présenté l’évolution de Veo2 et Imagen 3 lors de sa conférence annuelle Next 25, en avril. En outre, Flow est un nouvel outil de réalisation de films propulsé à l’IA qui permet aux utilisateurs de créer des scènes dignes d’un film avec Veo 3.
Google a également révélé que Jules, son système agentique de programmation, est accessible en version bêta publique.
Nouveaux outils et capacités
En ce qui concerne Gemini, Google a introduit de nouvelles capacités telles que la génération audio native et le « computer use » dans Gemini 2.5. Gemini 2.5 Pro, a le droit à un mode de raisonnement amélioré, appelé Deep Think. Celui-ci permettrait d’effectuer des tâches de calcul et de programmation complexes.
Dans le but de transformer l’application Gemini en un assistant universel, Google intègre certaines fonctionnalités du Projet Astra – telles que la compréhension des vidéos, le partage d’écran et la mémoire – dans Gemini Live, Search et l’API Live pour les développeurs. Gemini Live est une fonctionnalité de l’application Gemini qui permet aux utilisateurs d’avoir des conversations vocales naturelles avec le modèle.
Google introduit de nouvelles fonctionnalités dans Workspace, telles que la traduction vocale en temps réel dans Meet et les réponses « intelligentes » dans Gmail.
« AI Native » : l’IA partout, pour tous les utilisateurs
Avec toutes ces nouvelles capacités, Google est nettement différent de ce qu’il était auparavant, selon Chirag Dekate.
« De ses offres grand public à ses produits d’entreprise et en passant par le Search, l’IA est présente dans toutes les parties de l’offre du fournisseur de cloud », assure-t-il.
Il ajoute que les entreprises qui explorent la pile technologique de Google sont assurées que les modèles qu’elles construisent et déploient avec Gemini ont été testés et validés à grande échelle, en particulier avec les téléphones Android de Google.
« Elles tirent parti de technologies éprouvées lorsqu’elles construisent leurs propres modèles », juge-t-il. « Les entreprises qui utilisent des modèles non éprouvés ou ouverts, dans de nombreux cas, expérimentent elles-mêmes les modèles pour la première fois ».
Workspace : de la traduction vocale instantanée dans Google Meet
D’ailleurs, l’analyste considère que Google a prouvé l’efficacité des capacités multimodales de Gemini, en particulier dans Workspace et Google Search.
« Nombre de ces fonctionnalités multimodales dans Workspace et au-delà peuvent permettre de transformer l’expérience d’apprentissage… pour les entreprises », avance M. Dekate.
En outre, avec la nouvelle traduction vocale de Google Meet, Google a révélé que les mots prononcés peuvent être traduits dans la langue préférée de l’auditeur.
« Si cela fonctionne, c’est époustouflant », commente Mark Beccue. « Cela pourrait changer la donne. Cela permettra à Google de s’attaquer à Zoom, Teams et aux outils de collaboration de manière générale ».
Les entreprises qui souhaitent accéder à tous les modèles et fonctionnalités d’IA de Google peuvent le faire par l’intermédiaire de Google AI Ultra. Ce nouvel abonnement IA est désormais disponible au prix de 249,99 $ (!) par utilisateur et par mois.