Bienvenue dans le Pulse de la semaine : les mises à jour affectent la façon dont Google classe le contenu, la façon dont ses robots d’exploration gèrent la taille des pages et la direction vers laquelle se dirige le trafic de référence de l’IA. Voici ce qui compte pour vous et votre travail.

Google déploie la mise à jour principale de mars 2026

Google a commencé cette semaine à déployer la mise à jour principale de mars. Il s’agit de la première mise à jour générale de l’année.

Faits marquants : Le déploiement peut prendre jusqu’à deux semaines. Google l’a décrit comme une mise à jour régulière conçue pour afficher un contenu plus pertinent et plus satisfaisant provenant de tous les types de sites. Il arrive deux jours après la mise à jour du spam de mars terminée en moins de 20 heures.

Pourquoi c’est important

La mise à jour principale de décembre était la mise à jour générale la plus récente, se terminant le 29 décembre. Cela représente un écart de trois mois. La mise à jour de février 2026 n’a affecté que Discover, les classements de recherche n’ont donc pas été recalibrés depuis fin décembre.

Des changements de classement pourraient apparaître début avril. Google recommande d’attendre au moins une semaine complète après la fin du déploiement avant d’analyser les performances de la Search Console. Comparez avec une période de référence avant le 27 mars.

Ce que disent les professionnels du référencement

John Mueller, membre de l’équipe Search Relations de Google, a écrit sur Bluesky lorsqu’on lui a demandé si les deux mises à jour se chevauchent :

L’un concerne le spam, l’autre non. Si avec une certaine expérience, vous n’êtes pas sûr que votre site soit du spam ou non, il s’agit malheureusement probablement d’un spam.

Mueller a expliqué plus tard que les mises à jour principales ne suivent pas un mécanisme de déploiement unique. Différentes équipes et systèmes contribuent aux changements, et ces composants peuvent nécessiter des déploiements étape par étape plutôt qu’une seule version. C’est pourquoi les déploiements prennent des semaines et pourquoi la volatilité des classements apparaît souvent par vagues plutôt que d’un seul coup.

Roger Montti, écrivant pour Search Engine Journal, a noté que la proximité de la mise à jour anti-spam n’était peut-être pas une coïncidence. La lutte contre le spam fait logiquement partie de la réévaluation plus large de la qualité d’une mise à jour principale.

Lisez notre couverture complète : Google commence à déployer la mise à jour principale de mars 2026

Lisez la couverture de Roger Montti : Google répond aux raisons pour lesquelles les mises à jour principales peuvent être déployées par étapes

Illyes explique l’architecture d’exploration et les limites d’octets de Googlebot

Gary Illyes de Google, analyste au sein de l’équipe de recherche de Google, a publié un article de blog expliquant comment Googlebot fonctionne au sein des systèmes d’exploration plus larges de Google. L’article ajoute de nouveaux détails techniques à la limite d’exploration de 2 Mo publiée par Google plus tôt cette année.

Faits marquants : Illyes a décrit Googlebot comme l’un des clients d’une plateforme d’exploration centralisée. Google Shopping, AdSense et d’autres produits acheminent tous les demandes via le même système sous des noms de robots d’exploration différents. Les en-têtes de requête HTTP sont pris en compte dans la limite de 2 Mo. Les ressources externes telles que CSS et JavaScript disposent de leurs propres compteurs d’octets distincts.

Pourquoi c’est important

Lorsque Googlebot atteint 2 Mo, il ne rejette pas la page. Il arrête la récupération et transmet le contenu tronqué à l’indexation comme s’il s’agissait du fichier complet. Tout ce qui dépasse 2 Mo n’est jamais indexé. Cela est important pour les pages contenant de grandes images base64 en ligne, du CSS ou du JavaScript en ligne volumineux ou des menus de navigation surdimensionnés.

Les détails centralisés de la plate-forme expliquent également pourquoi les différents robots d’exploration de Google se comportent différemment dans les journaux du serveur. Chaque client définit sa propre configuration, y compris les limites d’octets. Les 2 Mo de Googlebot sont un remplacement spécifique à la recherche des 15 Mo par défaut de la plate-forme.

Google a désormais couvert ces limites dans des mises à jour de la documentation, un épisode de podcast et ce billet de blog en deux mois. Illyes a noté que la limite de 2 Mo n’est pas permanente et peut changer à mesure que le Web évolue.

Ce que disent les professionnels du référencement

Cyrus Shepard, fondateur de Zyppy SEO, a écrit sur LinkedIn:

Cela dit, en tant que SEO, nous sommes souvent confrontés à des situations extrêmes. Si vous remarquez que certains contenus ne sont pas indexés sur de TRÈS GRANDES PAGES, vous souhaiterez probablement vérifier votre taille.

Lisez notre couverture complète : Google explique les limites d’octets et l’architecture d’exploration de Googlebot

Illyes et Splitt de Google : les pages s’agrandissent et cela compte toujours

Gary Illyes et Martin Splitt, Developer Advocate chez Google, ont discuté de la croissance du poids des pages et de l’exploration dans un récent épisode de podcast Search Off the Record.

Faits marquants : Les pages Web ont été multipliées par près de 3 au cours de la dernière décennie. La valeur par défaut de 15 Mo s’applique à tous les systèmes d’exploration plus larges de Google, avec des clients individuels comme Googlebot for Search la remplaçant à 2 Mo. Illyes a demandé si les données structurées que Google demande aux sites Web d’ajouter contribuent au gonflement des pages.

Pourquoi c’est important

Le Web Almanac 2025 rapporte une taille médiane de page d’accueil mobile de 2 362 Ko. Cela indique que les pages deviennent de plus en plus volumineuses, même si cela ne doit pas être considéré en toute sécurité en dessous de la limite de récupération de 2 Mo de Googlebot. Cependant, la question d’Illyes sur les données structurées contribuant au gonflement mérite d’être surveillée. Google encourage les sites à ajouter un balisage de schéma pour des résultats riches, et ce balisage augmente le poids de chaque page.

Splitt a déclaré qu’il prévoyait d’aborder des techniques spécifiques pour réduire la taille des pages dans un prochain épisode. Les pages avec un contenu en ligne important doivent vérifier que leurs éléments critiques se chargent dans les 2 premiers Mo de la réponse.

Lisez notre couverture complète : Google : les pages s’agrandissent et cela compte toujours

Le trafic de référence Gemini a plus que doublé et dépasse la perplexité

Google Gemini a plus que doublé son trafic de référencement vers des sites Web entre novembre 2025 et janvier 2026. Les données proviennent de l’analyse de SE Ranking de plus de 101 000 sites sur lesquels Google Analytics est installé.

Faits marquants : SE Ranking a mesuré une augmentation combinée de 115 % sur deux mois, le bond ayant commencé au moment où Google a déployé Gemini 3. En janvier, Gemini a envoyé 29 % de trafic de référence en plus que Perplexity à l’échelle mondiale et 41 % de plus aux États-Unis. ChatGPT génère toujours environ 80 % de tout le trafic de référence de l’IA. Par souci de transparence, SE Ranking vend des outils de suivi de la visibilité de l’IA.

Pourquoi c’est important

En août 2025, Perplexity envoyait environ 2,9 fois plus de trafic de référence que Gemini. La hausse de Gemini entre décembre et janvier a inversé cette tendance en janvier 2026. L’avance de ChatGPT sur Gemini s’est également réduite, passant d’environ 22x en octobre à environ 8x en janvier.

Toutes les plateformes d’IA combinées représentent encore environ 0,24 % du trafic Internet mondial, contre 0,15 % en 2025. Il s’agit d’une croissance mesurable, mais cela reste une petite part par rapport à la recherche organique. Deux mois de croissance de Gemini correspondent au lancement d’un produit connu, mais il est trop tôt pour qualifier cela de tendance durable.

Gemini vaut désormais la peine d’être regardé aux côtés de ChatGPT et Perplexity dans vos rapports de parrainage.

Lisez notre couverture complète : Google Gemini envoie plus de trafic vers des sites que de perplexité : rapport


Thème de la semaine : Google explique ses propres systèmes

Dans trois des quatre articles de cette semaine, Google vous explique le fonctionnement de ses systèmes. Illyes a publié un article de blog détaillant l’architecture de Googlebot. La même semaine, le podcast Search Off the Record couvrait le poids des pages et les seuils d’exploration. Mueller a expliqué pourquoi les mises à jour principales sont déployées par vagues plutôt que d’un seul coup. Chacun comble une lacune que la documentation seule a laissée ouverte.

Les données de trafic Gemini offrent une nouvelle perspective. Google est ouvert sur le fonctionnement de ses robots d’exploration et de ses systèmes de classement. Le trafic transitant par ses services d’IA augmente suffisamment rapidement pour être reflété dans les données de tiers, et Google n’explique pas cette partie.

Top des histoires de la semaine :

Plus de ressources :

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Se connecter

S’inscrire

Réinitialiser le mot de passe

Veuillez saisir votre identifiant ou votre adresse e-mail. Un lien permettant de créer un nouveau mot de passe vous sera envoyé par e-mail.