Le Web – et la manière dont les humains interagissent avec lui – a définitivement changé depuis les débuts du référencement et l’émergence des moteurs de recherche au début et au milieu des années 90. À cette époque, nous avons vu Internet passer d’une chose que personne ne comprenait à une chose sans laquelle la plupart des pays du monde ne peuvent pas fonctionner. Cet entretien entre Bill Gates et David Letterman met en perspective ce phénomène vieux de 30 ans :
Il y a 30 ans, l’opinion était qu’Internet n’était pas du tout compris, pas plus que son influence potentielle. Aujourd’hui, le concept de l’IA entrant dans notre vie quotidienne est pris beaucoup plus au sérieux, au point que beaucoup le considèrent avec crainte – peut-être maintenant parce que nous (pensons) avoir une vision précise de la manière dont cela pourrait évoluer.
Cette transformation ne concerne pas tant les compétences que nous avons développées au fil du temps, mais plutôt l’évolution de la technologie et des canaux qui les entourent. Ces technologies et ces canaux évoluent à un rythme rapide, ce qui amène certains à se demander si leurs compétences technologiques inhérentes s’appliqueront toujours au sein de l’écosystème de recherche actuel.
La course aux rats technologiques
À l’heure actuelle, vous pouvez avoir l’impression qu’il y a quelque chose de nouveau à apprendre ou un nouveau produit à expérimenter chaque jour, et il peut être difficile de décider sur quoi concentrer votre attention et vos priorités. Il s’agit malheureusement d’une phase qui, je pense, se poursuivra pendant quelques années alors que la poussière retombe sur cet ouest sauvage du changement.
Étant donné que ces changements ont un impact sur presque tout ce dont un référenceur serait responsable dans le cadre de la visibilité organique, il peut sembler difficile de digérer toutes ces choses – alors que nous relevons apparemment le défi de communiquer ces changements à nos clients ou à nos parties prenantes/membres du conseil d’administration.
Mais le changement n’équivaut pas à la fin des temps. Ce « changement » concerne la technologie autour de ce que nous faisons depuis plus d’une génération, et non le fondement de la discipline elle-même.
Le vieux chapeau est le nouveau chapeau
Les principaux moteurs de recherche vous l’ont activement indiqué, notamment Google et Bingque les principes fondamentaux du référencement devraient toujours être au premier plan de ce que nous faisons à l’avenir. Danny Sullivan, ancien responsable de la liaison de recherche chez Google, l’a également clairement indiqué lors de son récent discours au WordCamp USA :
Les messages cohérents sont clairs :
- Produisez des sites bien optimisés et performants.
- Remplissez des données structurées solides et des graphiques de connaissances des entités.
- Renforcez le sentiment et la perspective de la marque.
- Offrez un contenu unique et précieux aux gens.
Le problème que certains peuvent avoir est que le contenu que nous produisons est davantage destiné aux agents qu’aux personnes, et si cela est vrai, quel impact cela a-t-il ?
Le Web se divise en deux
Le Web ouvert a surtout été perturbé, certains modèles commerciaux étant déracinés en prenant des connaissances résolues et en les diffusant au sein de leur plate-forme, s’appropriant ainsi le visiteur humain, dont ils dépendent pour leurs revenus.
Cela a créé une scission d’un Web ouvert complet en deux – le Web « humain » et le Web « agent » – où ces deux publics sont tous deux des considérations majeures et différeront d’un site à l’autre. Les référenceurs devront prendre en compte les deux côtés du Web et comment les servir tous les deux – c’est là que les compétences d’un référenceur deviennent plus précieuses qu’elles ne l’étaient auparavant.
Un exemple peut être vu dans la manière dont les agents prennent désormais en charge les transactions de commerce électronique, où OpenAI a annoncé « Achetez-le dans ChatGPT » où l’expérience d’achat est encore plus fluide grâce aux paiements instantanés. Il a également rendu open source la technologie qui le sous-tend, Protocole de commerce agent (ACP)et est déjà adopté par les systèmes de gestion de contenu (CMS), notamment Shopify. Cette répartition entre engagement agentique et humain nécessitera encore une optimisation afin de garantir une découvrabilité maximale.
En ce qui concerne le contenu, assurez-vous que tout est concis et évitez les superflus, ce que j’appelle le « spam de tokenisation ». Le contenu n’est pas seulement exploré ; il est traité, fragmenté et tokenisé. Les agents privilégieront un texte bien structuré et formaté.
Les « victoires à court terme » ressemblent à du Black Hat
Bien sûr, lors de tout changement technologique, certains mauvais acteurs pourront vous parler d’une toute nouvelle tactique dont l’efficacité est garantie pour vous aider à vous « classer dans l’IA ». N’oubliez pas que la poussière n’est pas encore retombée en ce qui concerne la maturité de ces moteurs d’assistance, et il faut comparer cela à l’ère du référencement pré-Panda/Penguin, où les techniques de référencement black hat étaient plus faciles à mettre en œuvre.
Ces mises à jour d’algorithmes ont comblé ces failles, et la même chose se reproduira à mesure que ces plateformes s’amélioreront – avec une rapidité accrue à mesure que les agents comprendront ce qui est vraiment honnête avec une précision accrue.
Les indicateurs de réussite changeront, pas l’exécution pour les influencer
En réalité, les principes et fondements fondamentaux du référencement sont toujours les mêmes et ont été présents dans la plupart des changements dans le passé – y compris « la fin du bureau » lorsque les mobiles sont devenus plus dominants ; et « la fin de la saisie au clavier » lorsque la recherche vocale a commencé à se développer avec des produits tels qu’Alexa, Google Home et même Google Glass.
L’émergence de l’IA va-t-elle rendre obsolète ce que je fais en tant que SEO ? Non.
Le référencement technique reste le même, et les attributs examinés par les agents ne sont pas différents de ce que nous optimiserions si les grands modèles linguistiques (LLM) n’existaient pas. Le marketing de marque reste le même. Bien que le terme « sentiment de marque » soit un terme plus largement utilisé de nos jours, il aurait toujours dû faire partie de nos stratégies de marketing en ligne en termes d’autorité, de pertinence et de perspective.
Cela étant dit, nos métriques natives ont été dévalorisées en deux ans, et ces métriques continueront d’évoluer parallèlement aux changements à venir à mesure que ces plateformes offriront plus de stabilité. Cela a déjà faussé les données d’une année sur l’autre et continuera de le faire pour l’année à venir à mesure que de nouveaux LLM évolueront. Ceci, cependant, pourrait être comparé à des événements tels que le remplacement des données granulaires de mots clés organiques par une mesure (non fournie) dans Google Analytics, la dépréciation de Yahoo! Site Explorer, ou encore dévalorisation des données de référence comme Alexa Rank et Google PageRank.
Révisez vos considérations relatives aux mesures de réussite
Les mesures de réussite doivent désormais aller au-delà du SERP pour atteindre la visibilité et la découvrabilité dans leur ensemble, via de multiples canaux. Il existe désormais plusieurs outils et plates-formes disponibles qui peuvent analyser et créer des rapports sur les mesures de visibilité axées sur l’IA, telles que Yoast AI Brand Insights, qui peuvent fournir un meilleur aperçu de la façon dont votre marque est interprétée par les LLM.
Si vous êtes plus technique, utilisez MCP (Protocole de Contexte de Modèle) pour mieux comprendre les données via des dialogues en langage naturel. MCP est une norme open source qui permet aux applications d’IA de se connecter à des systèmes externes tels que des bases de données, des outils ou des flux de travail (vous pouvez le visualiser comme un port USB-C pour l’IA) afin qu’elles puissent accéder aux informations et effectuer des tâches à l’aide d’une connexion simple et unifiée. Il existe déjà plusieurs MCP avec lesquels vous pouvez travailler, notamment :
Vous pouvez aller plus loin en associant cela à un outil de codage d’ambiance tel que Claude Code, où vous pouvez l’utiliser pour créer une application de reporting qui utilise une combinaison des serveurs MCP ci-dessus afin d’extraire les meilleures données et de créer des visuels et des graphiques interactifs pour vous et vos clients/parties prenantes.
Le même mais différent… mais toujours le même
Alors que la divergence entre les expériences humaines et agents augmente, les méthodes par lesquelles nous, en tant que SEO, les optimiserions ne sont pas trop différentes. Tirez parti des deux dans votre stratégie – tout comme vous l’avez fait lorsque le mobile a gagné du terrain de la même manière.
Plus de ressources :
Image en vedette : Vallabh Soni/Shutterstock

Commentaires