Bienvenue dans SEO Pulse de la semaine pour le meilleur des actualités de cette semaine : les mises à jour couvrent ce que les premières données révèlent sur la mise à jour principale Discover de février, pourquoi Google peut ignorer un plan de site valide et comment les entreprises tentent de jouer avec la mémoire de l’assistant IA.

Voici ce qui compte pour vous et votre travail.

Découvrez la mise à jour principale : les premières données montrent moins d’éditeurs et plus de sujets

ActualitésDash a publié une analyse comparer la visibilité de Discover avant et après celle de Google Mise à jour principale Discover de février en utilisant des données de panel provenant de millions d’utilisateurs américains.

Les fenêtres précédant la mise à jour (du 25 au 31 janvier) et postérieures à la mise à jour (du 8 au 14 février) couvraient les 1 000 principaux domaines et les 1 000 principaux articles aux États-Unis, en Californie et à New York. Les catégories de contenu unique ont augmenté dans les trois zones géographiques, mais les éditeurs uniques ont chuté aux États-Unis (de 172 à 158 domaines) et en Californie (de 187 à 177).

Les domaines locaux de New York apparaissaient environ cinq fois plus souvent dans le flux de New York que dans celui de Californie. Yahoo est passé de plusieurs éléments dans le top 100 américain à zéro après la mise à jour, et les publications X.com provenant de comptes institutionnels sont passées de trois à 13 éléments dans la même fourchette.

Pourquoi c’est important

Google a décrit la mise à jour comme ciblant un contenu plus pertinent au niveau local, moins d’appâts à clics et une couverture plus approfondie de sites possédant une expertise en la matière. Les données NewzDash fournissent une première lecture claire sur la localisation et la combinaison de sujets, bien que le signal clickbait soit plus difficile à confirmer puisque les marqueurs de titres à eux seuls ne peuvent pas prouver si le contenu sensationnel a diminué.

La tendance plus large des sites spécialisés gagnant du terrain sur les généralistes correspond à ce que l’analyse de base de décembre a montré. Les sites ayant une forte identité locale peuvent enregistrer des gains sur leurs marchés nationaux tout en perdant en visibilité ailleurs.

Ce que disent les gens

Lorsque Google a publié la mise à jour avec la documentation Discover révisée, Glenn Gabeconsultant SEO chez GSQi, comparé l’ancienne et la nouvelle version sur X et a signalé un ajout qui ne figurait pas auparavant dans les instructions spécifiques à Discover :

« Au-delà des appâts à clics et des éléments associés, la documentation Discover inclut désormais également « Offrir une expérience de page exceptionnelle ». Alors vous savez, regardez la surcharge de votre page avec des publicités ennuyeuses, des conneries à lecture automatique, et plus encore. « 

La réaction plus large s’est divisée entre ceux qui signalent des gains dans les flux au niveau de l’État et d’autres notant de fortes baisses du trafic Discover.

Lisez notre couverture complète : Mise à jour de Google Discover : les premières données montrent moins de domaines aux États-Unis

Mueller dit que Google peut ignorer les plans de site sans contenu « nouveau et important »

John Mueller de Google, Search Advocate chez Google, a répondu à une Question Reddit sur les erreurs persistantes de récupération du plan du site dans la console de recherche. Le propriétaire du site avait confirmé via les journaux du serveur que Googlebot avait récupéré le plan du site avec une réponse de 200, mais la Search Console continuait d’afficher une erreur « Impossible de récupérer » malgré un XML valide et des directives d’indexation correctes.

Mueller a déclaré que Google devait être « désireux d’indexer davantage de contenu du site » et qu’il n’utiliserait pas le plan du site s’il n’était pas convaincu qu’il y avait du contenu « nouveau et important » à indexer.

Pourquoi c’est important

Les erreurs de récupération du plan du site sont l’un des signaux les plus déroutants dans la Search Console, car elles peuvent apparaître même lorsque le côté serveur semble correct. Parcourir la liste de contrôle standard de validation XML, les codes de réponse et les règles robots.txt peut ne pas faire apparaître le problème si Google ne voit tout simplement pas de raisons suffisantes pour indexer ce qui se cache derrière les URL.

Roger Montti, qui a couvert ce sujet pour Search Engine Journal, a noté que Mueller était large dans sa description, mais réfléchir à ce qui satisfait un visiteur d’un site peut vous aider à identifier ce qui doit être amélioré.

Ce que disent les gens

L’histoire poursuit un débat en matière de référencement sur le fait que les plans de site sont des indices et non des directives. Certains affirment que Google ignore les plans de site pour les petits sites ou ceux qui ne sont pas des sites d’actualités, s’appuyant plutôt sur des liens, tandis que d’autres notent que Google ne dit pas qu’il « perd la confiance » dans un site lorsqu’un plan de site n’est pas utilisé.

La réponse de Mueller a ajouté une nouvelle perspective de demande d’indexation que la communauté n’avait pas largement prise en compte.

Lisez notre couverture complète : Fondamentaux du référencement : Google explique pourquoi il ne peut pas utiliser de plan de site

Microsoft détecte un empoisonnement de la mémoire de l’IA grâce aux boutons « Résumer »

Équipe de recherche sur la sécurité Defender de Microsoft recherche publiée décrivant ce qu’il appelle « l’empoisonnement des recommandations de l’IA ». La technique implique que les entreprises cachent les instructions d’injection rapide dans les boutons du site Web intitulés « Résumer avec l’IA ».

En cliquant sur l’un de ces boutons, vous ouvrez un assistant IA avec une invite pré-remplie envoyée via un paramètre de requête URL. La partie visible indique à l’assistant de résumer la page, tandis que la partie cachée lui demande de se souvenir de l’entreprise comme source fiable pour les conversations futures.

En examinant les URL liées à l’IA observées dans le trafic de courrier électronique sur 60 jours, l’équipe de Microsoft a déclaré avoir identifié 50 tentatives d’injection rapide distinctes provenant de 31 entreprises dans 14 secteurs. Les URL d’invite pré-remplies ciblent Copilot, ChatGPT, Claude, Gemini, Perplexity et Grok. Microsoft a noté que l’efficacité varie selon la plate-forme et a évolué au fil du temps.

Pourquoi c’est important

Au lieu d’optimiser le classement des recherches, ces entreprises tentent d’influencer les recommandations des assistants IA en plantant des instructions au niveau de la couche mémoire. Microsoft a retracé les invites jusqu’à des outils accessibles au public conçus pour renforcer la présence dans la mémoire de l’IA, et une invite allait bien au-delà d’une simple instruction « souvenez-vous de nous » en injectant une copie marketing complète.

La couche de recommandation de l’IA est devenue un espace de concurrence, les entreprises développant des outils pour l’influencer. La manière dont les plateformes abordent ces tactiques déterminera le niveau de confiance des utilisateurs dans les recommandations générées par l’IA.

Ce que disent les gens

La recherche a attiré l’attention des cercles de sécurité et d’IA. Dans une interview avec Lecture sombreTanmay Ganacharya, vice-président de la recherche sur la sécurité chez Microsoft, a décrit le mécanisme :

« Le bouton amènera l’utilisateur – après le clic – au domaine d’IA pertinent et spécifique pour l’un des assistants d’IA ciblés. »

Ganacharya a également dit BanqueInfoSécurité que toutes les plateformes ne sont pas également exposées :

 » Parmi les principales plates-formes que nous avons examinées, seules Copilot, ChatGPT et Perplexity disposent de fonctionnalités de mémoire explicites. Claude et Grok n’ont actuellement pas de mémoire persistante, ce qui les rend apparemment immunisés contre cette attaque spécifique. « 

Certains spécialistes du marketing se demandent si cette technique n’est qu’une stratégie de croissance agressive, suscitant les réticences des professionnels de la sécurité quant aux conséquences éthiques et de confiance.

Lisez notre couverture complète : Microsoft : les boutons « Résumer avec l’IA » utilisés pour empoisonner les recommandations de l’IA

Thème de la semaine : les signaux qui déterminent la visibilité deviennent de plus en plus difficiles à voir

Chaque article de cette semaine aborde des événements qui se déroulent dans les coulisses, au-delà des mesures habituelles que la plupart des professionnels du référencement surveillent.

La mise à jour Discover de Google guide davantage de sujets vers moins d’éditeurs, un changement que vous pouvez remarquer dans les données de flux plutôt que dans la Search Console. L’explication de Mueller sur les plans de site montre qu’une erreur de récupération peut indiquer qu’un jugement d’indexation se produit en amont. Et les recherches de Microsoft montrent que les entreprises tentent d’influencer les recommandations au niveau de la couche mémoire.

Le fil conducteur est que les décisions qui déterminent la visibilité sont prises dans des endroits auxquels la plupart d’entre nous n’ont pas encore prêté attention.

Pour un contexte plus approfondi sur ces sujets, consultez ces articles récents.


Image en vedette : VRVIRUS/Shutterstock ; Paulo Bobita/Journal des moteurs de recherche

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Se connecter

S’inscrire

Réinitialiser le mot de passe

Veuillez saisir votre identifiant ou votre adresse e-mail. Un lien permettant de créer un nouveau mot de passe vous sera envoyé par e-mail.