Toutes les quelques années, l’industrie du référencement découvre une nouvelle façon de produire du contenu en masse et se convainc que cette fois ça marchera. Que le volume de pages submergera la capacité de Google à évaluer la qualité. Que si vous publiez juste assez, les chiffres vous porteront.

Cela ne fonctionne jamais. Cela n’a jamais fonctionné. Et ceux qui vous vendent ces approches savent que cela n’a jamais fonctionné. Ils ont juste besoin que cela fonctionne assez longtemps pour récupérer la facture.

Le motif a un nom. C’est ce qu’on appelle « ne pas apprendre »

Parcourons la chronologie, car apparemment, nous devons recommencer.

2008-2011 : Filature de contenu

Le pitch était simple : prenez un article, exécutez-le via un logiciel qui échange les synonymes, et tout à coup vous obtenez 50 articles « uniques ». Le mot « unique » faisait un gros travail dans cette phrase. Ces articles se lisent comme si quelqu’un avait alimenté un dictionnaire avec un mixeur. Mais même si le résultat avait été peaufiné, le principe était brisé. Voici ce que les créateurs de contenu n’ont jamais compris, et ce que leurs successeurs n’ont toujours pas compris : l’unicité est trivialement facile à produire. Un singe laissant tomber ses mains sur un clavier produit un contenu unique. La chaîne de caractères n’a jamais existé auparavant – félicitations, c’est original. Le plus difficile n’a jamais été l’unicité. Cela produisait un caractère unique ça vaut quelque chose. Unique et précieux ne sont pas synonymes, et l’écart entre les deux est le point où toute stratégie de mise à l’échelle s’effondre.

Google l’a toléré pendant un certain temps. Ses systèmes n’avaient tout simplement pas encore rattrapé leur retard. Puis Panda est arrivé en février 2011, a touché près de 12 % de toutes les requêtes de recherche, et les fermes de contenu ont vu leur trafic s’évaporer du jour au lendemain… J’ai eu la « chance » de voir cela se produire en temps réel. Demand Media, l’exemple emblématique du modèle de ferme de contenu, a signalé une perte de 6,4 millions de dollars l’année suivante.

La leçon était censée être claire : on ne peut pas industrialiser la qualité. Un volume sans substance est un handicap dont la durée est plus longue que ce que la plupart des budgets peuvent absorber.

2015-2022 : SEO programmatique

Le pitch a évolué. Au lieu de faire tourner des articles existants, vous créeriez des modèles et les rempliriez de données structurées. Pages « Meilleur (X) de (Ville) », générées par milliers, chacune étant une fine enveloppe autour d’une requête de base de données. Certains d’entre eux apportaient réellement de la valeur – si les données sous-jacentes étaient bonnes et si le modèle répondait aux véritables besoins des utilisateurs. La plupart ne l’ont pas fait. La plupart n’étaient que des pages de porte portant une meilleure tenue. Google a passé des années à affiner sa capacité à détecter et à rétrograder le contenu basé sur des modèles qui existait principalement à des fins d’indexation plutôt que pour les humains.

La leçon était censée être renforcée : l’échelle fonctionne quand il y a de la substance en dessous. Sans cela, vous construisez simplement une cible plus grande.

2023 à aujourd’hui : contenu généré par l’IA à grande échelle

Et nous voilà à nouveau. Même pitch, outils plus brillants. « Nous pouvons produire 500 articles par mois ! Merveilleux. Pouvez-vous produire 500 articles par mois qui valent la peine d’être lus ? Cela contient quelque chose qu’un lecteur ne pourrait pas obtenir à partir des résultats déjà présents dans l’index ? Cela démontre une forme d’expertise, d’expérience ou de pensée originale ?

Non? Ensuite, vous ne mettez pas à l’échelle le contenu. Vous augmentez le gaspillage de votre budget d’exploration.

Et les échecs de reconnaissance des formes sont stupéfiants. (Ce n’était pas subtil. Plusieurs d’entre nous l’ont remarqué. Non, nous n’avons pas été impressionnés.)

Je suis récemment tombé sur un outil de visibilité de l’IA – un outil qui se vend en vous aidant à être découvert par les systèmes d’IA – qui avait généré des centaines de pages suivant le modèle « meilleures agences de référencement à {ville} ». Du déjà-vu. Quiconque a vécu le référencement programmatique le reconnaît immédiatement : c’est le manuel de 2017, sauf que maintenant la copie est rédigée par un LLM. Le modèle a reçu une mise à niveau grammaticale et un tampon « c’est AEO ». Ce n’est pas le cas de la stratégie.

Lily Ray a signalé un cas similaire: un site de CV avec plus de 500 pages programmatiques pour « des exemples de CV pour {carrière} ». Chaque titre suit exactement la même formule. Modèles de pages presque identiques. Schéma AggregateRating mal utilisé. Contenu IA évident partout. Son résumé était composé de trois mots : « Ça a fonctionné jusqu’à ce que ça ne marche plus. »

lily ray post 543
Crédit image : Pedro Dias

Cette phrase devrait être tatouée sur chaque pitch deck de mise à l’échelle du contenu. A fonctionné jusqu’à ce que ce ne soit plus le cas. C’est toujours le cas. Et puis ce n’est pas le cas.

L’ironie d’un Optimisation de l’IA Un outil utilisant des pages de porte générées en masse pour construire sa propre visibilité serait amusant s’il n’était pas aussi parfaitement adapté à la marque de cette industrie.

Le mur qualitatif ne bouge pas

Voici ce que chaque génération de scalers de contenu ne parvient pas à comprendre : Google n’évalue pas le contenu de manière isolée. Il évalue le contenu par rapport à tout le reste de l’index sur le même sujet.

La publication de 500 articles générés par l’IA sur les taux hypothécaires ne fait pas de vous une autorité en matière de taux hypothécaires. Cela fait de vous la 500ème source à dire la même chose avec des mots légèrement différents. Et Google en possède déjà 499. Il n’a pas besoin du vôtre.

Le mur qualitatif est le suivant : il existe un seuil minimum de valeur réelle – un aperçu original, une expérience vécue, une expertise spécifique, quelque chose que le lecteur ne peut obtenir ailleurs – en dessous duquel aucun volume ne vous aide. Vous pouvez publier un million de pages en dessous de ce seuil. Vous serez classé pour rien d’important.

Et c’est encore pire. Pour les personnes qui mettent à l’échelle le contenu de l’IA spécifiquement pour gagner en visibilité dans les systèmes de réponse basés sur l’IA, la stratégie de volume n’échoue pas simplement ; cela se retourne activement contre vous. UN Article de 2025 sur l’évaluation de la récupération pour les systèmes de l’ère LLM introduit une métrique qui mesure à la fois l’utilité et distrayant passages en récupération. La conclusion qui compte ici : le contenu peu utile ne reste pas tranquillement dans l’index en attendant d’être ignoré. Cela peut faire dérailler les modèles de recherche, dégradant ainsi la qualité des réponses produites par ces systèmes. Vos 500 articles fins ne sont pas seulement invisibles. Ce sont du bruit. Et si votre site contient également des pages véritablement utiles enfouies dans ce bruit, félicitations : vous avez créé votre propre modèle d’interférence. Le volume que vous pensiez utile à la découverte noie activement les pages qui auraient pu le mériter.

Ce n’est pas une idée nouvelle. C’est la même idée que les créateurs de contenu ont ignorée en 2010, que les usines de référencement programmatique ont ignorées en 2018 et que les usines de contenu IA ignorent actuellement. Les outils se sont améliorés pour produire du texte. Le texte n’a toujours rien à dire.

Google vous l’a dit. À plusieurs reprises

Les politiques anti-spam de Google définissent l’abus de contenu à grande échelle comme la génération de pages « dans le but principal d’obtenir des classements dans les recherches et non d’aider les utilisateurs ». Ils citent explicitement « l’utilisation d’outils d’IA générative ou d’autres outils similaires pour générer de nombreuses pages sans ajouter de valeur pour les utilisateurs » à titre d’exemple. Ce n’est pas un sous-texte. C’est du texte.

En juin 2025, Google a commencé à émettre des actions manuelles spécifiquement pour abus de contenu à grande échelleciblant les sites qui publiaient en masse du contenu généré par l’IA. Des sites au Royaume-Uni, aux États-Unis et dans l’Union européenne ont reçu des notifications de la Search Console citant des « techniques de spam agressives, telles que l’abus de contenu à grande échelle ». La visibilité totale diminue. Les pages n’ont pas chuté dans le classement ; ils ont disparu.

La mise à jour anti-spam d’août 2025 a poursuivi l’application. Les mises à jour de base ultérieures ont continué à resserrer les vis. À chaque fois, c’est le même profil qui est touché : gros volume, peu de contenu, pas de contrôle éditorial.

Et à chaque fois, les propriétaires des sites concernés ont agi avec surprise. Comme si Google ne leur avait pas dit ça depuis 15 ans.

« Mais notre contenu est bien classé »

C’est mon illusion préférée. Je l’ai vu à chaque étape de ce cycle. « Notre contenu d’IA est classé, donc ça doit aller. » Affirmer « c’est bien classé » est souvent précisément pourquoi Google publie des améliorations algorithmiques et des actions manuelles pour votre site. Si votre contenu de faible valeur est classé, le système ne vous a pas atteint encore. C’est tout ce que cela signifie.

Google regroupe les signaux au niveau du site, pas seulement au niveau de la page. Vous pouvez faire fonctionner des pages individuelles tandis que le signal de qualité global de votre site se dégrade. Et lorsque l’application rattrape son retard (algorithmiquement ou manuellement), elle ne supprime pas les pages une par une. Cela touche beaucoup.

C’est l’erreur des créateurs de contenu, recyclée : « Ça fonctionne en ce moment, donc ça doit être une stratégie. » Le contenu de Demand Media était également classé. Jusqu’à ce que ce ne soit plus le cas.

Lis a parfaitement capturé cela: « L’étude de cas : la mise à l’échelle du contenu de l’IA fonctionne ! La réalité : » – suivie de la falaise de trafic qui arrive inévitablement. Chaque réussite de mise à l’échelle est un instantané pris avant la correction. Personne ne publie la suite.

pedrodias post 108
Crédit image : Pedro Dias

L’économie n’a même pas de sens

Mettez de côté le risque pour un moment. Parlons de ce que vous produisez réellement.

Cinq cents articles générés par l’IA par mois. Chacun doit être examiné pour en vérifier l’exactitude – car les LLM hallucinent et la publication d’informations incorrectes est une responsabilité qui s’étend bien au-delà du référencement. Chacun doit être vérifié pour son originalité – car s’il se lit comme tout le reste de l’index, il n’apporte aucune valeur ajoutée ; aucun avantage concurrentiel. Chacun a besoin d’une supervision éditoriale pour s’assurer qu’il sert réellement le public que vous prétendez servir.

Si vous faites tout cela, le coût a simplement évolué – et peut-être augmenté – pendant que vous vous convainquiez que vous étiez efficace. L’« efficacité » de la génération de contenu IA s’évapore dès que vous appliquez les normes de qualité auxquelles le contenu doit réellement répondre.

Et si vous ne faites rien de tout cela ? Vous publiez à grande échelle du contenu non révisé, non original et potentiellement inexact sous votre marque. Je ne comprends vraiment pas comment quelqu’un peut approuver cela.

Même erreur, meilleurs outils

Filature de contenu. SEO programmatique. Contenu généré par l’IA à grande échelle. Trois outils différents, une erreur identique : traiter le contenu comme un problème de fabrication.

L’industrie manufacturière produit des résultats identiques à grande échelle – c’est là le point. Le contenu tire sa valeur du contraire : d’être spécifique, d’être informé par l’expérience, de dire quelque chose que le reste de l’index ne dit pas. Toute tentative d’industrialisation se heurte à cette contradiction.

Vous ne pouvez pas automatiser la spécificité. Vous ne pouvez pas modéliser l’expérience. Vous ne pouvez pas générer une pensée originale en exécutant une invite via un LLM et en espérant que quelque chose d’utile en sortira. Et ces contraintes ne seront pas résolues par la prochaine version du modèle. Ils se concentrent sur ce qui rend le contenu intéressant à lire en premier lieu.

Les personnes qui continuent de rechercher l’échelle optimisent pour la mauvaise variable. Ils voient « plus de contenu » comme un intrant qui produit « plus de trafic » comme un résultat. Mais la fonction n’est pas linéaire. Cela n’a jamais été le cas. Il est limité par la qualité, et aucun volume ne contourne la porte.

La seule question qui compte

Avant de publier quoi que ce soit (assisté par l’IA ou autre), posez une question : qu’est-ce que cette page offre que le lecteur ne peut pas déjà obtenir ?

Si la réponse est « rien, mais nous aurons davantage de pages indexées », vous ne construisez pas de stratégie de contenu. Vous créez un passif. Et vous le faites avec la confiance de quelqu’un qui n’a apparemment jamais entendu parler de Panda, n’a jamais regardé ce qui est arrivé aux sites de référencement programmatique en 2022 et n’a jamais lu les propres politiques anti-spam de Google.

Vous pouvez vous convaincre aussi longtemps que vous le souhaitez. Mais vous ne tromperez tout le monde que pendant un moment.

Le mur est toujours là. Cela a toujours été là. Les outils ne cessent de changer. Ce n’est pas le cas du mur.

Plus de ressources :


Cet article a été initialement publié sur L’inférence.


Image en vedette : Roman Samborskyi/Shutterstock

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Se connecter

S’inscrire

Réinitialiser le mot de passe

Veuillez saisir votre identifiant ou votre adresse e-mail. Un lien permettant de créer un nouveau mot de passe vous sera envoyé par e-mail.