L’outil de recherche innovant de Google évolue pour décrypter et utiliser le contenu visuel.
Résumé
- Google intègre des capacités multimodales dans son mode IA, permettant d’analyser des images grâce à Gemini et Google Lens.
- Cette IA fournit des réponses détaillées basées sur des photos, prenant en compte le contexte visuel et proposant des liens pertinents.
- Après une phase réservée aux abonnés, le mode IA est désormais accessible à des millions d’utilisateurs aux États-Unis.
Une IA capable d’analyser visuellement grâce à Gemini et Google Lens
Avec sa dernière mise à jour, Google combine la puissance de sa technologie de reconnaissance d’image avec l’intelligence artificielle. Les utilisateurs peuvent désormais prendre une photo directement depuis l’application Google sur Android ou iOS pour obtenir des réponses contextualisées et détaillées. Cette IA dépasse la simple lecture de texte; elle évalue également visuellement les scènes et interprète les objets, les couleurs et les matériaux. Une telle innovation ouvre des horizons nouveaux pour la recherche visuelle, bien plus riche que les précédentes versions. Le système peut donc comprendre des scènes complexes, marquant un progrès significatif vers une interprétation plus humaine des images. Google renforce ainsi son avance dans le domaine de la recherche enrichie par l’IA.
Réponses contextualisées et variées à partir d’une simple photo
Avec une méthode nommée «fan-out», Google IA génère plusieurs requêtes à partir d’une unique image. Cette fonctionnalité permet d’identifier divers objets sur une photo et d’offrir des résultats pertinents et détaillés. Par exemple, si une image montre une étagère avec des livres, l’IA peut reconnaître les titres tout en recommandant des ouvrages comparables ayant reçu des critiques positives. Cette approche enrichit les réponses en contexte et fournit des liens utiles pour approfondir les recherches. L’utilisateur n’a plus besoin de formuler sa question avec précision; une simple image suffit pour déclencher une recherche complexe. Cela rend la recherche plus intuitive et naturelle, répondant ainsi à l’évolution des comportements numériques des utilisateurs.
Une alternative directe face à ChatGPT, la recherche et Perplexity
Le mode IA de Google apparait comme une réponse convaincante aux outils concurrents tels que ChatGPT ou Perplexity. Ces services proposent une expérience interactive avec des résumés générés par l’IA, extraits de vastes bases de données. Google adopte une stratégie similaire tout en s’appuyant sur son impressionnant index de recherche. L’interface en mode IA s’inspire des codes des chatbots, offrant aux utilisateurs la possibilité d’interagir avec la recherche comme avec un assistant virtuel. Toutefois, l’intégration poussée des images place Google au-dessus de ses concurrents en matière de multimodalité. Ce développement permet également à l’entreprise de réaffirmer sa position prédominante sur le marché de la recherche tout en offrant une expérience fluide et enrichie.
Déploiement progressif à une large échelle
Au départ réservé à un cercle restreint d’abonnés de Google One AI Premium via Labs, le mode IA s’ouvre désormais à un public beaucoup plus vaste. Google annonce que « des millions » de nouveaux utilisateurs américains auront bientôt accès à cette fonctionnalité. Ce déploiement progressif vise à tester la solidité de l’outil tout en intégrant les retours des premiers utilisateurs. L’objectif est clair : démocratiser cette nouvelle forme de recherche intégrant du texte, des images et de l’IA, le tout dans une interface unique. À terme, ce mode IA pourrait redéfinir la recherche mobile, transformant la manière dont les utilisateurs interagissent avec les moteurs de recherche. Google fait ainsi un pas décisif vers l’intelligence artificielle conversationnelle, marquant une évolution significative de son moteur de recherche emblématique.

