Lors de son événement Search On aujourd’hui, Google a présenté plusieurs nouvelles fonctionnalités qui sont, prises ensemble, sa plus forte tentative à ce jour pour amener les gens à faire plus que taper quelques mots dans le champ de recherche. En exploitant à petite échelle la nouvelle technologie d’apprentissage automatique pour le modèle unifié multitâche (MUM), l’entreprise espère démarrer un cercle vertueux : elle fournira plus de détails et des réponses riches en contexte, et en retour, elle espère que les utilisateurs demanderont plus de détails et de contexte. -questions riches. La société espère que le résultat final sera une expérience de recherche plus riche et plus approfondie.
Le vice-président principal de Google, Prabhakar Raghavan, supervise la recherche ainsi que l’assistant, la publicité et d’autres produits. Il aime à dire – et il l’a répété dans une interview dimanche dernier – que « la recherche n’est pas un problème résolu ». C’est peut-être vrai, mais les problèmes que lui et son équipe essaient de résoudre maintenant ne concernent pas tant les querelles sur le Web, mais plutôt l’ajout de contexte à ce qu’ils y trouvent.
De son côté, Google commencera à démontrer sa capacité à reconnaître des groupes de sujets liés à l’utilisation du machine learning et à vous les présenter de manière organisée. La refonte à venir de la recherche Google commencera à afficher des cases « Choses à savoir » qui vous renverront à différents sous-thèmes. Quand il y a une section d’une vidéo qui est pertinente au sujet général – même si ce n’est pas la vidéo dans son ensemble – vous y serez envoyé. Les résultats de vos achats commenceront à afficher le stock disponible dans les magasins à proximité, et même des vêtements de différents styles associés à votre recherche.
Pour votre part, Google – bien que le terme « question » soit probablement meilleur – propose de nouvelles façons de rechercher au-delà de la zone de texte. Il fait un grand effort pour déplacer le logiciel de reconnaissance d’image Google Lens vers plus d’endroits. Il sera inclus dans l’application Google sur iOS ainsi que dans le navigateur Web Chrome sur les appareils de bureau. Et avec MUM, Google espère amener les utilisateurs à faire plus que simplement identifier des fleurs ou des points de repère, mais plutôt à utiliser directement Lens pour poser des questions et faire des achats.
« C’est un cycle qui, je pense, continuera de s’intensifier », a déclaré Raghavan. « Plus de technologie conduit à plus d’abordabilité pour l’utilisateur, conduit à une meilleure expression de l’utilisateur, et cela nécessitera plus de nous techniquement. »
Ces deux aspects de l’équation de recherche sont destinés à lancer la prochaine phase de la recherche Google, car les algorithmes d’apprentissage automatique deviennent plus importants dans le processus en organisant et en présentant directement les informations. À cet égard, les efforts de Google seront grandement aidés par les récentes avancées dans le traitement du langage par l’intelligence artificielle. Grâce aux systèmes connus sous le nom de grands modèles de langage (MUM en fait partie), l’apprentissage automatique est bien meilleur pour cartographier les connexions entre les mots et les sujets. Ce sont les compétences que l’entreprise exploite pour rendre la recherche non seulement plus précise, mais plus exploratoire et, espérons-le, plus utile.
Un exemple Google est utile. Vous n’avez peut-être pas la première idée du nom des pièces de votre vélo, mais si quelque chose est cassé, vous devrez le savoir. Google Lens peut identifier visuellement le dérailleur (la pièce de changement de vitesse qui est suspendue près de la roue arrière) et au lieu de simplement vous donner une information distincte, il vous permettra de poser des questions sur la réparation de cette chose directement, et vous amènera à l’info (dans ce cas excellent) youtube top permanent Chaine).
Pousser pour amener plus d’utilisateurs à ouvrir Google Lens plus souvent est excellent en soi, mais dans l’ensemble (pour ainsi dire), Google essaie de rassembler plus de contexte autour de vos requêtes. Les recherches multimédias plus complexes qui combinent du texte et des images, selon Raghavan, nécessitent « un niveau de contexte complètement différent de celui que notre fournisseur devrait avoir, et nous aident donc énormément à obtenir autant de contexte que possible ».
Nous sommes loin des soi-disant « 10 liens bleus » des résultats de recherche que Google fournit. Il affiche des boîtes d’informations, des résultats d’images et des réponses directes depuis longtemps maintenant. Les publicités d’aujourd’hui vont encore plus loin, car les informations fournies par Google ne sont pas seulement une étiquette d’informations pertinentes, mais un récapitulatif de ce que ses machines comprennent en grattant le Web.
Dans certains cas, comme pour les achats, cette distillation signifie que vous enverrez probablement plus de pages vues à Google. Comme pour Lens, il est important de surveiller cette tendance : les recherches Google vous poussent de plus en plus vers les propres produits de Google. Mais il y a aussi un plus grand danger ici. Le fait que Google vous dise plus de choses augmente directement le fardeau que vous portez toujours : parler avec moins de préjugés.
J’entends par là un parti pris dans deux sens différents. Le premier est technique : les modèles d’apprentissage automatique que Google souhaite utiliser pour améliorer la recherche présentent des problèmes bien documentés de préjugés raciaux et sexistes. Ils ont été formés en lisant de grandes portions du Web et, par conséquent, ils ont tendance à reconnaître les mauvaises manières de parler. Les problèmes de Google avec l’équipe d’éthique de l’IA sont bien documentés à ce stade – c’est Deux chercheurs chevronnés licenciés Après avoir publié un article sur ce même sujet. En tant que vice-président de la recherche chez Google, Pandu Nayak a déclaré le bord‘s James Vincent dans son article sur les annonces MUM d’aujourd’huiGoogle comprend que tous les modèles linguistiques ont des préjugés, mais l’entreprise pense qu’elle peut éviter de « les proposer aux gens pour une consommation directe ».
Quoi qu’il en soit (et pour être clair, ce n’est peut-être pas le cas), cela évite une autre question de dépendance et un autre type de biais. Lorsque Google commence à vous en dire plus sur ses propres combinaisons d’informations directement, de quel point de vue parlez-vous ? En tant que journalistes, nous parlons souvent du fait que la soi-disant « vue de nulle part » est une façon inappropriée de présenter nos reportages. Quel est le point de vue de Google ? Il s’agit d’un problème auquel l’entreprise a été confrontée dans le passé, et est parfois connu comme le problème « une seule vraie réponse ». Lorsque Google essaie de donner aux gens des réponses brèves et décisives avec des systèmes automatisés, cela finit souvent Publier de mauvaises informations.
En introduisant cette question, Raghavan répond en soulignant la complexité des paradigmes du langage moderne. « Presque tous les paradigmes linguistiques, si vous les regardez, sont des mariages dans un espace de grande dimension. Certaines parties de ces espaces ont tendance à être plus fiables et d’autres moins fiables. Nous pouvons évaluer ces choses assez facilement mécaniquement. Le défi est , dit Raghavan. Comment présenter une partie de cette complexité à l’utilisateur sans les confondre.
Mais je pense que la vraie réponse est que, pour l’instant du moins, Google fait ce qu’il peut pour éviter de confronter la question de son point de vue sur les moteurs de recherche en évitant les domaines où il pourrait être accusé, selon les mots de Raghavan, « d’édition excessive » . Souvent, lorsqu’ils discutent avec les dirigeants de Google de ces problèmes de préjugés et de confiance, ils se concentrent sur des parties facilement identifiables de ces espaces de grande dimension comme la « fiabilité ».
Par exemple, les nouvelles cases « Choses à savoir » de Google n’apparaîtront pas lorsqu’une personne recherche des éléments que Google a identifiés comme « particulièrement dangereux/sensibles », même si le porte-parole a déclaré que Google « n’autorise ni ne bloque certaines catégories réglementées ». , mais nos systèmes sont capables de comprendre quels sujets ces types de fonctionnalités devraient ou ne devraient pas afficher.
La recherche de Google, ses entrées et sorties, ses algorithmes et ses modèles de langage sont devenus d’une complexité presque inimaginable. Lorsque Google nous dit qu’il peut désormais comprendre le contenu des vidéos, nous considérons qu’il a les capacités de calcul pour y parvenir – mais la vérité est que même l’indexation d’une collection aussi énorme est une tâche énorme qui éclipse la tâche initiale d’indexation du Web primitif. (Google indexe uniquement les scripts audio pour un sous-ensemble de YouTube, pour mémoire, bien qu’avec MUM, ils visent à faire de l’indexation visuelle et d’autres plates-formes vidéo à l’avenir.)
Souvent, lorsque vous parlez à des informaticiens, le problème de colporteur apparaîtra. C’est un casse-tête célèbre où vous essayez de calculer le trajet le plus court possible entre un nombre donné de villes, mais c’est aussi une riche métaphore pour réfléchir à la façon dont les ordinateurs effectuent leurs machinations.
« Si vous me donnez toutes les machines du monde, je peux résoudre des cas assez importants », déclare Raghavan. Mais en ce qui concerne la recherche, il dit qu’elle n’est pas résolue et ne pourra probablement pas être résolue une fois que de nouveaux ordinateurs lui seront lancés. Au lieu de cela, Google doit concevoir de nouvelles approches, telles que MUM, qui utilisent mieux les ressources que Google peut créer de manière réaliste. « Si vous me donniez toutes les machines là-bas, je serais toujours limité par la curiosité humaine et ma conscience. »
Les nouvelles façons de comprendre les informations de Google sont impressionnantes, mais le défi est de savoir ce que vous ferez avec les informations et comment vous les présenterez. Ce qui est amusant avec le problème du voyageur de commerce, c’est que personne ne semble s’arrêter pour demander ce qu’il en est exactement, qu’est-ce qu’il montre à tous ses clients lorsqu’il fait du porte-à-porte ?
More Stories
Apple annonce l’expansion de Vision Pro dans deux pays supplémentaires
Nintendo lance une application musicale avec des thèmes de Mario et Zelda et, plus important encore, une chaîne Wii Shop
C’est le journal que personne n’a lu avant d’annoncer la disparition de la cryptographie moderne.