Cette année, Google revient sans cesse sur le même message : la qualité de votre IA dépend de la qualité des données qui l’alimentent.

Ce message est apparu dans le podcast Ads Decoded, les mises à jour de Data Manager, les conseils de balisage, les intégrations de partenaires et maintenant même le contenu axé sur les développeurs comme le podcast Ads DevCast. Cela semble refléter un changement plus large dans la façon dont Google s’attend à ce que les campagnes soient créées et optimisées.

Le problème n’est pas que les annonceurs manquent de données. La plupart des comptes en ont beaucoup. Le problème est de savoir comment ces données ont été structurées, sélectionnées et introduites dans les systèmes d’appel d’offres au fil du temps.

À mesure que Google se penche davantage sur l’optimisation basée sur l’IA, cet écart devient plus visible pour les annonceurs qui ne disposent pas d’une configuration de conversion solide. Les performances des campagnes sont de plus en plus liées à la clarté avec laquelle le système comprend à quoi ressemble le succès.

Pourquoi Google pousse les annonceurs à repenser leur stratégie de conversion

Pendant des années, de nombreux annonceurs ont traité le suivi des conversions comme un élément à développer et non à affiner encore et encore.

Si une plateforme permettait de suivre facilement une action, elle était ajoutée. Si un CRM pouvait renvoyer quelque chose, celui-ci était importé. Si un nouveau type de conversion devenait disponible, il se retrouvait souvent dans le compte sans trop de résistance.

Sur le papier, cela ressemble à un ensemble de données plus complet. Plus il y a de données, mieux c’est – n’est-ce pas ?

En réalité, cela a créé beaucoup de bruit pour que les machines apprennent ce qui compte vraiment.

Les campagnes sont souvent optimisées pour une combinaison d’actions qui ne partagent pas le même niveau d’intention, de valeur ou de timing.

Certains signaux sont de haute qualité mais peuvent avoir un faible volume en raison d’un retard dans l’activité du cycle de vente. D’autres peuvent être immédiats mais vaguement liés aux résultats commerciaux réels. De nombreux comptes finissent par les mélanger tous sous une seule stratégie d’enchères dans le but de tout mesurer.

Cela fonctionnait assez bien lorsque l’automatisation dépendait moins d’entrées précises.

Cela devient un problème plus grave lorsque l’on s’attend à ce que les systèmes d’appel d’offres prennent des décisions basées sur des modèles contenus dans ces données.

Où la plupart des configurations de conversion échouent

Dans l’un des récents épisodes du podcast Ads Decoded, Les conseils récents de Google autour de la génération de leads montre clairement ce qu’ils essaient de corriger. L’accent est mis sur la cartographie du parcours client complet et l’identification du point de conversion qui fournit un signal utilisable pour les enchères.

Cela signifie regarder trois choses en même temps :

  1. Dans quelle mesure l’action prédictive a-t-elle une réelle valeur commerciale
  2. À quelle fréquence cela se produit
  3. À quelle vitesse cela se produit après l’interaction initiale

De nombreux annonceurs optent toujours par défaut pour la conversion la plus profonde possible, en supposant que l’optimisation en vue de la vente finale produira le meilleur résultat pour chaque campagne.

Le problème n’est pas cet objectif particulier en lui-même, mais plutôt la façon dont ce signal est utilisable par le système dans une campagne à plus haut niveau d’entonnoir. Et c’est là que de nombreuses stratégies de conversion commencent à s’effondrer.

Si cette action se produit rarement ou prend des semaines à se concrétiser, cela limite les enseignements que le système d’appel d’offres peut en tirer. Il en résulte souvent une optimisation plus lente, une volatilité plus élevée et une mise à l’échelle moins efficace.

D’un autre côté, optimiser les actions à un stade précoce sans tenir compte de la qualité peut gonfler le volume sans améliorer les résultats réels.

Pour sélectionner le bon signal, il faut faire correspondre la conversion au rôle joué par la campagne et s’assurer que ce signal est à la fois significatif et utilisable pour les enchères.

Ce changement nécessite une prise de décision plus intentionnelle que ce que de nombreux comptes ont historiquement appliqué à la configuration des conversions. Cela introduit également un niveau de discipline dont de nombreux annonceurs n’avaient pas besoin lorsque l’automatisation dépendait moins de la qualité du signal.

Pourquoi Google accorde-t-il autant d’importance à la qualité des données ?

Google n’est pas subtil à propos de la poussée Data Strength. Cela apparaît dans les mises à jour de produits, les intégrations, les modifications de balisage et même dans la façon dont Google s’adresse aux annonceurs et aux développeurs.

Une partie de la raison est pratique. Les annonceurs ont perdu la visibilité sur de nombreux signaux sur lesquels ils s’appuyaient auparavant. Les changements de confidentialité, les restrictions du navigateur et les limitations de la plate-forme ont rendu les mesures moins complètes qu’auparavant.

Dans le même temps, les systèmes d’enchères de Google sont invités à faire plus avec moins. Cela exerce davantage de pression sur les signaux encore disponibles.

C’est là qu’intervient Data Strength. Google essaie de rendre ces signaux plus fiables, plus faciles à connecter et plus utiles pour l’optimisation. Data Manager, Tag Gateway et les intégrations de partenaires soutiennent tous cet objectif.

Le expansion des intégrations avec des plateformes comme HubSpot, Zapier et Cloudflare soutiennent également cet effort. Au lieu de s’appuyer sur des implémentations personnalisées, les annonceurs peuvent connecter les systèmes où leurs données existent déjà avec moins d’effort.

Cela améliore la cohérence dans la manière dont les données circulent dans les systèmes d’appel d’offres.

Cela renforce également l’objectif plus large de Google consistant à rendre son automatisation plus efficace dans un environnement à faible signal.

Cela laisse-t-il présager un rôle plus large pour Google ?

Je pense également qu’il y a un changement plus important derrière cette poussée.

Google se rapproche des systèmes dans lesquels les résultats commerciaux se produisent réellement, et non seulement là où les annonces sont diffusées. La connexion des données CRM, des conversions hors ligne et des signaux d’audience permet aux plateformes de Google de mieux comprendre à quoi ressemble un « bon » client au-delà du clic initial ou du remplissage d’un formulaire.

Cela peut absolument aider les annonceurs à améliorer leurs performances.

Dans le même temps, cela positionne Google comme plus qu’une simple plateforme publicitaire. Il s’intègre davantage dans la manière dont les entreprises mesurent les performances, définissent la valeur et relient les efforts de marketing aux résultats réels.

Où le marquage côté serveur s’intègre-t-il dans ce contexte ?

Il y a eu beaucoup de confusion autour du marquage côté serveur et de son lien avec ce que Google promeut aujourd’hui.

Ils sont liés, mais ce n’est pas la même chose.

La passerelle de balises Google se concentre sur la manière dont la balise Google est transmise et sur la manière dont les demandes sont acheminées via l’infrastructure propriétaire. Il s’agit d’un moyen de rendre les configurations de balisage existantes plus résilientes et alignées sur les attentes en matière de confidentialité.

Le balisage côté serveur est une approche architecturale plus large. Il déplace le traitement des données du navigateur vers un environnement de serveur contrôlé par l’annonceur. Cela peut améliorer les performances du site, offrir plus de contrôle sur la gestion des données et prendre en charge des cas d’utilisation plus avancés sur plusieurs plates-formes.

En termes pratiques, la passerelle de balises constitue souvent une première étape plus accessible pour les annonceurs cherchant à améliorer la fiabilité des données sans une refonte complète de l’infrastructure.

Le marquage côté serveur représente un investissement plus important et tend à être plus pertinent pour les organisations ayant des exigences en matière de données plus complexes ou des besoins de gouvernance plus stricts.

Les deux approches peuvent fonctionner ensemble et la documentation Google recommande souvent de les combiner pour une configuration plus durable.

Une approche réfléchie de la solidité des données

L’attention accrue portée à la solidité des données est positive, mais elle ne supprime pas la nécessité d’une prise de décision prudente.

Simplifier la configuration ne conduit pas automatiquement à de meilleurs résultats. Si les actions de conversion sont mal définies ou ne correspondent pas à l’intention de la campagne, les connecter plus efficacement n’améliorera pas les performances.

Si vous êtes un spécialiste du marketing qui n’est pas directement impliqué dans la configuration des conversions, il peut être intéressant de rencontrer vos équipes Analytics. Créez une liste d’événements ou d’actions de conversion indispensables que vous devez suivre pour les campagnes (en ligne et/ou hors ligne) et vérifiez cette liste avec ce qui est actuellement configuré.

Il y a également un élément de gouvernance à considérer. À mesure que le marquage devient plus automatisé et que la collecte de données se développe, les équipes doivent comprendre ce qui est capturé, comment cela est utilisé et comment cela s’aligne sur les politiques internes.

Google a noté qu’une collecte automatique élargie d’événements pourrait entraîner l’envoi de données supplémentaires à ses systèmes, qui devraient être examinées dans le cadre de la mise en œuvre.

Une autre considération concerne la manière dont les améliorations spécifiques à la plateforme s’intègrent dans une stratégie de mesure plus large.

Les efforts de Google en matière de Data Strength se concentrent principalement sur l’amélioration des performances dans son propre domaine. C’est précieux, mais cela devrait être complété par des approches de mesure plus larges lors de la prise de décisions en matière de budget et de canaux.

C’est là que des initiatives comme Méridien entrer en jeu. Google a positionné Meridian comme une solution open source de modélisation du mix marketing pour aider les annonceurs à évaluer les performances sur tous les canaux et à relier ces informations à la planification budgétaire.

Comment Google renforce la solidité des données dans l’ensemble du secteur

L’un des aspects les plus intéressants de cette campagne est la cohérence avec laquelle elle apparaît sur différents supports.

Les mises à jour de produits n’en sont qu’un élément.

Google investit également dans l’éducation et la communication autour de la force des données, en utilisant des formats qui s’adressent à la fois aux spécialistes du marketing et aux développeurs. Annonces décodées continue de se concentrer sur des stratégies de campagne pratiques, notamment sur la façon de cartographier le parcours client et de sélectionner les bons signaux de conversion.

Dans le même temps, de nouvelles initiatives comme Annonces DevCast s’adressent à un public plus technique, avec des épisodes axés sur des sujets tels que l’API Data Manager et les workflows d’intégration de données. L’objectif semble être d’aller à la rencontre des équipes là où elles se trouvent, qu’elles soient responsables de la stratégie de campagne ou de la mise en œuvre sous-jacente.

L’API Data Manager elle-même renforce cette direction. Google déplace les flux de travail tels que Customer Match vers un système conçu spécifiquement pour la connectivité des données, les contrôles de confidentialité et l’ingestion plus cohérente des données de première partie.

Cette combinaison de changements de produits, de partenariats et d’éducation témoigne d’un effort coordonné visant à renforcer la manière dont les données sont collectées, connectées et utilisées dans l’ensemble de l’atmosphère publicitaire.

Ce que disent les annonceurs à propos de la conversation sur la force des données

La discussion autour de la force des données et de la qualité des leads a suscité de nombreuses conversations nécessaires entre Google et les annonceurs.

En réaction à l’épisode Ads Decoded «Au-delà du remplissage du formulaire», de nombreux annonceurs sont heureux que les entreprises B2B reçoivent l’attention qu’elles réclament. Mélissa Mackey a fait l’éloge de l’épisode, déclarant que « Tous les annonceurs de génération principale devraient aller écouter. » Quelques spécialistes du marketing ont souligné la nécessité d’améliorer ou de supprimer le nombre de prospects de robots qu’ils voient dans leurs campagnes B2B, notamment Robert Peck.

Google a également publié une série d’articles et d’entretiens avec des experts sur l’importance de la solidité des données. Tous semblaient avoir le même sentiment et c’est là que j’ai commencé à voir de plus en plus d’annonceurs relier les points.

Adria Bose a commenté un discussion avec Kamal Janardhan, directeur principal du PM chez Google, et Jeff Sauer, PDG de MeasureU :

Ce qui me frappe le plus, c’est la définition de l’IA comme moteur, et non comme stratégie. Trop de dirigeants confondent les deux, s’attendant à ce que l’IA compense les signaux faibles. Cet article explique pourquoi des données de haute qualité ne sont pas négociables pour obtenir des résultats significatifs.

Jonathan Reed a également montré son soutien à l’accent renouvelé sur la solidité des données, déclarant que même s’il s’agit d’un travail à temps plein pour son équipe, ils ont vu «nous constatons des augmentations spectaculaires des conversions et des diminutions spectaculaires des coûts ! »

Qu’est-ce que cela signifie pour vos campagnes ?

Ce changement apparaîtra assez rapidement une fois que vous examinerez la manière dont vos campagnes sont réellement configurées.

De nombreux comptes considèrent encore le suivi des conversions comme quelque chose à construire une fois et à laisser tranquille. Mais si les signaux qui alimentent vos campagnes ne correspondent pas à l’intention derrière les requêtes que vous ciblez, il devient plus difficile pour les enchères de bien faire leur travail.

Cela se manifeste généralement d’une manière que vous avez probablement déjà vue, où les performances semblent incohérentes et la mise à l’échelle devient plus difficile. Même de petits changements peuvent créer des fluctuations trop volatiles.

Rien de tout cela ne vient d’un seul contexte ou d’une seule campagne. Cela reflète généralement la façon dont le système apprend à partir des données qui lui sont fournies.

C’est pourquoi cette poussée vers la force des données est si importante.

Cela oblige à examiner de plus près quels signaux sont réellement utilisés pour l’optimisation, leur fiabilité et s’ils reflètent les résultats commerciaux réels.

Dans certains cas, cela signifie connecter de meilleures données de votre CRM. Dans d’autres, il s’agit de déterminer la façon dont vos balises sont configurées ou la façon dont les conversions sont définies en premier lieu.

À mesure que Google continue de s’orienter dans cette direction, l’écart va probablement se creuser entre les comptes qui sont intentionnels concernant leurs données et ceux qui ne le sont pas.

Plus de ressources :


Image en vedette : Garun.Prdt/Shutterstock

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Se connecter

S’inscrire

Réinitialiser le mot de passe

Veuillez saisir votre identifiant ou votre adresse e-mail. Un lien permettant de créer un nouveau mot de passe vous sera envoyé par e-mail.