La fonction de recherche multiple de Google vous permet d'effectuer des recherches avec du texte et des images en même temps
Cela fait partie des efforts continus de Google pour utiliser l'IA pour « créer des expériences d'information véritablement conversationnelles, multimodales et personnelles »
Google a commencé jeudi à déployer une nouvelle fonctionnalité de recherche qui permettra aux utilisateurs de rechercher des informations en utilisant à la fois du texte et des images. La nouvelle fonctionnalité de recherche multiple s'inscrit dans le cadre des efforts continus de Google pour utiliser l'IA afin de « créer des expériences d'information véritablement conversationnelles, multimodales et personnelles », comme l'a récemment déclaré le PDG de Google, Sundar Pichai.
La fonction de recherche multiple est intégrée à Google Lens, l'outil de reconnaissance d'images accessible via l'application Google. Pour l’instant, la fonctionnalité est disponible en version bêta pour les utilisateurs américains effectuant des recherches avec du texte en anglais. Il est également orienté vers les recherches d'achats.
Par exemple, un utilisateur pourrait prendre une capture d’écran d’une robe orange et ajouter « vert » à sa requête pour essayer de trouver la même robe dans cette couleur. Il est également utile pour les recherches non commerciales ; Un utilisateur peut prendre une photo d’un plant de romarin et ajouter la requête « Instructions d’entretien » pour savoir comment prendre soin de sa nouvelle plante.
Pour utiliser cette fonctionnalité, ouvrez l’application Google, appuyez sur l’icône de l’appareil photo de l’objectif, puis recherchez une capture d’écran ou prenez une nouvelle photo. Ensuite, vous balayez vers le haut et appuyez sur le bouton « + Ajouter à votre recherche » pour ajouter du texte.
Dans son billet de blog jeudi, Google a déclaré qu'il explorait également les moyens d'améliorer la fonctionnalité avec MUM (Multitask Unified Model), le dernier modèle d'IA de Google. Le géant de la technologie a récemment expliqué comment il utilise MUM et d'autres modèles d'IA pour fournir plus efficacement des informations sur l'aide en cas de crise aux personnes à la recherche d'aide.
En février, lors de la conférence téléphonique du quatrième trimestre de Google, Pichai a expliqué les investissements de Google dans les modèles d'IA qui permettent la recherche multimodale.
« En 2022, nous resterons concentrés sur l'évolution de nos produits de connaissances et d'information, y compris la recherche, Maps et YouTube, afin d'être encore plus utiles », a-t-il déclaré. « Les investissements dans l'IA seront essentiels, et nous continuerons à apporter des améliorations aux interfaces conversationnelles comme l'Assistant. »
Il a ajouté : « De MUM à Pathways en passant par BERT et bien d’autres, ces investissements profonds dans l’IA nous aident à être à la pointe de la qualité de la recherche. »