Dans une interview en podcast, Liz Reid, vice-présidente de la recherche chez Google, a décrit deux façons dont les LLM modifient ce que Google peut indexer et la façon dont il classe les résultats pour les utilisateurs individuels.

Reid a dit au Accéder au podcast que les modèles d’IA multimodaux permettent désormais à Google de comprendre le contenu audio et vidéo à un niveau plus profond qu’auparavant. Elle a également évoqué un avenir dans lequel les résultats de recherche s’adapteraient en fonction des abonnements payants d’un utilisateur.

Quoi de neuf

La compréhension multimodale élargit ce que Google peut indexer

Reid a déclaré que le fait que les LLM soient multimodaux a ouvert des formats de contenu que Google avait auparavant du mal à traiter.

Reid a déclaré aux hôtes :

« L’avantage du LLM est qu’il est multimodal. Nous pouvons donc réellement comprendre le contenu audio et le contenu vidéo à un niveau que nous ne pouvions pas comprendre il y a des années. »

Elle est allée plus loin en décrivant comment Google peut désormais aller au-delà de la transcription de base lors de l’analyse de vidéos.

« Maintenant, vous pouvez beaucoup mieux comprendre l’audio. Maintenant, vous pouvez beaucoup mieux comprendre la vidéo. Maintenant, vous pouvez comprendre non seulement la transcription vidéo, mais aussi de quoi parle la vidéo, quel est son style ou d’autres choses comme ça. « 

Reid a relié cela à une lacune de longue date dans le fonctionnement de la recherche pour les non-anglophones. Pour les utilisateurs indiens qui parlent hindi ou d’autres langues, le Web manque souvent des informations dont ils ont besoin dans leur langue. Auparavant, la traduction de tout le contenu Web dans toutes les langues n’était pas évolutive. Les LLM ont changé cela.

« Maintenant, avec un LLM, vous pouvez prendre des informations dans une langue, les comprendre, puis les produire dans une autre langue. Ainsi, l’information s’ouvre. »

Google s’oriente dans cette direction depuis un certain temps. En octobre 2025, Reid a déclaré au Wall Street Journal que Google avait ajusté le classement pour afficher davantage de vidéos courtes, de forums et de contenu généré par les utilisateurs.

Les commentaires ajoutent également du contexte à l’expérience Audio Overviews de Google lancée dans Search Labs en juin dernier, qui génère des résumés parlés par l’IA des résultats de recherche.

Ce n’était pas possible il y a quelques années. En 2021, Google et KQED ont testé si le contenu audio pouvait être rendu consultable et ont constaté que la précision de la parole en texte n’était pas suffisamment élevée, en particulier pour les noms propres et les références régionales. Les commentaires de Reid suggèrent que la barrière est tombée.

La recherche par abonnement pourrait changer la façon dont les résultats sont personnalisés

Reid a également décrit une direction de personnalisation qui va au-delà de la fonctionnalité Sources préférées existante de Google.

Elle a déclaré aux hébergeurs que Google souhaitait afficher le contenu provenant de points de vente pour lesquels un utilisateur paie, et non les résultats payants provenant de sources auxquelles il ne peut pas accéder.

« Si vous aimez cette source et que vous entretenez une relation avec elle, ce contenu devrait apparaître plus facilement pour vous sur Google. »

Reid a donné un exemple pratique. Supposons que 20 interviews sur un sujet soient payantes mais qu’un utilisateur s’abonne à un seul point de vente. Google devrait permettre de trouver facilement celui qu’ils peuvent lire.

« Nous devrions faire ressortir celui pour lequel ils paient et non les six auxquels ils ne peuvent pas accéder davantage. »

Elle a suggéré que l’entreprise a « fait de petits pas jusqu’à présent, mais souhaite faire plus » pour renforcer la façon dont le public et les sources fiables se connectent via la recherche. Elle a également mentionné la possibilité de micropaiements pour des articles individuels, même si elle a reconnu que ce modèle n’a pas décollé historiquement.

Google a étendu ses sources préférées à l’échelle mondiale pour les utilisateurs anglophones en décembre et a annoncé une fonctionnalité qui met en évidence les liens des abonnements d’actualités payants des utilisateurs. Google a déclaré qu’il donnerait la priorité à ces liens dans un carrousel dédié, à partir de l’application Gemini, suivi des aperçus de l’IA et du mode AI. À l’époque, Google déclarait que les utilisateurs qui choisissent une source préférée cliquent sur ce site deux fois plus souvent en moyenne. Les commentaires de Reid suggèrent que l’entreprise considère la recherche par abonnement comme une évolution plus large dans la même direction.

Pourquoi c’est important

Les capacités multimodales que Reid a soulignées permettent d’élargir les formats de contenu découverts via la recherche. Les podcasts, les séries vidéo et le contenu audio ont toujours été plus difficiles à évaluer pour Google au-delà des métadonnées et des transcriptions. La capacité croissante de Google à évaluer la pertinence et la profondeur de l’audio et de la vidéo modifie directement qui peut être trouvé via la recherche et comment.

Pour les marques et les créateurs qui investissent dans des formats non textuels, la capacité de Google à faire apparaître ce travail rattrape le public.

L’orientation de la personnalisation basée sur l’abonnement est importante pour tout éditeur disposant d’un modèle de paywall ou d’adhésion. Des résultats de recherche qui s’adaptent à ce que paient les utilisateurs individuels resserreraient le lien entre la fidélisation des abonnés et la visibilité de la recherche. Le contenu payant pourrait être plus performant pour le public qui compte le plus pour l’éditeur, plutôt que d’être dépriorisé parce que la plupart des utilisateurs ne peuvent pas y accéder.

Regarder vers l’avenir

Reid n’a fixé aucun calendrier pour aucun des deux développements. Les capacités d’indexation multimodale dont elle a parlé semblent être actuelles, tandis que la personnalisation par abonnement est une orientation déclarée avec certaines fonctionnalités existantes déjà en place.

Google I/O est prévu du 19 au 20 mai. Reid a déclaré sur le podcast que l’entreprise « construit activement », mais que le rythme de développement de l’IA signifie que certaines fonctionnalités pourraient être réunies jusqu’en avril et quand même arriver sur scène.


Image en vedette : Mawaddah F/Shutterstock

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Se connecter

S’inscrire

Réinitialiser le mot de passe

Veuillez saisir votre identifiant ou votre adresse e-mail. Un lien permettant de créer un nouveau mot de passe vous sera envoyé par e-mail.