Logo de l'épisode #65 : Marketing > DISCUSSION AUTOUR DE LA MESURE & DE L'ATTRIBUTION AVEC MARGARITA ZLATKOVA Head of Programmatic Advertising at Weborama du podcast Bannouze : Le podcast du marketing digital !

#65 : Marketing > DISCUSSION AUTOUR DE LA MESURE & DE L’ATTRIBUTION AVEC MARGARITA ZLATKOVA Head of Programmatic Advertising at Weborama

Épisode diffusé le 20 mai 2022 par Bannouze : Le podcast du marketing digital !

Écouter l'épisode :

Introduction : La mesure marketing à la croisée des chemins, la fin d’une ère

\n\n

Le marketing digital vit une transformation profonde, une de ces secousses sismiques qui redéfinissent les règles du jeu pour les décennies à venir. Au cœur de cette révolution se trouve un sujet à la fois technique et stratégique, un véritable pilier de notre industrie : la mesure de la performance. Pendant des années, nous, les marketeurs, avons navigué avec une boussole d’une précision redoutable, le cookie tiers. Il nous a permis de suivre, d’analyser et d’optimiser nos actions avec une granularité jusqu’alors inégalée. Mais cette boussole est en train de se dérégler. Le monde que nous connaissions, celui de la mesure ‘user-centric’ en temps réel, est sur le point de disparaître.

\n\n

La question n’est plus de savoir si ce changement va avoir lieu, mais comment nous allons y survivre et, mieux encore, comment nous allons prospérer dans ce nouvel environnement. C’est un défi immense, car comme je l’explique souvent, la mesure et l’attribution sont les fondations sur lesquelles repose la justification de nos budgets et la pertinence de nos stratégies. Sans une mesure fiable, nous naviguons à l’aveugle. C’est une problématique qui peut sembler anxiogène, une véritable ‘Arlésienne’ du marketing digital, un sujet phare dont tout le monde parle mais dont les contours restent flous pour beaucoup.

\n\n

Dans cet article, nous allons démystifier ensemble ce futur ‘cookieless’. En m’appuyant sur mon expérience chez Weborama, où nous travaillons au quotidien avec la data propriétaire, je vous propose de faire un état des lieux complet. Nous reviendrons sur ce que le cookie tiers nous a apporté, nous analyserons les raisons profondes de sa disparition, et surtout, nous explorerons en détail le nouveau panorama des solutions qui s’offrent à nous. L’objectif est clair : vous donner les clés pour comprendre et vous préparer à cette nouvelle ère de la mesure marketing, une ère qui sera moins individuelle, plus agrégée, mais pas nécessairement moins intelligente.

\n\n\n\n

Le panorama de la mesure à l’ère du cookie tiers : une vision unifiée mais fragile

\n\n

Pour bien comprendre la magnitude du changement qui nous attend, il est essentiel de se souvenir d’où nous venons. L’écosystème de la mesure digitale, tel que nous le connaissons aujourd’hui, a été entièrement façonné par une technologie : le cookie tiers. C’est lui qui a permis de créer un langage commun, un système homogène entre les annonceurs, les éditeurs et les milliers de technologies intermédiaires. Cette homogénéité a été la clé de voûte de notre capacité à analyser la performance de manière transverse.

\n\n

Ce qui est très important pour moi, c’est que la mesure et l’attribution aujourd’hui sont possibles en grande partie en temps réel grâce au cookie tiers qui a permis de créer un système homogène. Aujourd’hui, on est capable de suivre un internaute quasiment à la trace, d’avoir un parcours utilisateur, de savoir quels sont ses intérêts, de savoir quels sont ses besoins, ce qu’il a vu, ce qu’il a consulté, ce qu’il va consulter dans le futur.

\n\n

Cette vision ‘user-centric’ a profondément infusé nos pratiques. Elle nous a donné l’illusion, parfois justifiée, d’un contrôle quasi total sur le parcours client digital. Grâce à ce petit fichier texte, nous pouvions relier une impression publicitaire vue sur un site média à une visite sur le site de l’annonceur, puis à une mise au panier, et enfin à un achat. C’est cette chaîne de valeur, cette capacité à connecter les points, qui est aujourd’hui remise en cause.

\n\n

Les trois piliers de la mesure traditionnelle

\n\n

Dans ce système, la mesure s’articulait autour de plusieurs grandes familles de solutions, qui cohabitaient plus ou moins bien. Premièrement, les solutions que j’appelle ‘ad-centric’, qui se concentrent sur ce qui se passe sur le site de l’annonceur après un contact publicitaire. Elles nous renseignent sur le temps passé, le nombre de pages vues, les interactions spécifiques. C’est le domaine des outils d’analytics web qui, grâce aux cookies, pouvaient attribuer une session à une source de trafic précise. Deuxièmement, il y a la mesure purement ‘média’, celle qui est au cœur du quotidien des agences et des traders. On y retrouve les impressions, les clics, les taux de visibilité, les taux de complétion vidéo, et bien sûr, les conversions post-vue et post-clic. C’est cette mesure qui permet l’optimisation en temps réel des campagnes. Enfin, on trouve ce que l’on peut appeler la ‘post-mesure’, qui regroupe des analyses plus statistiques et moins instantanées comme les études d’incrémentalité ou le Marketing Mix Modeling (MMM). Ces approches s’attachent à des masses de données plus importantes pour en tirer des enseignements stratégiques, mais elles ne permettent pas l’ajustement tactique d’une campagne en cours.

\n\n

Le cookie tiers : la clé de voûte d’un système temps réel et ‘user-centric’

\n\n

L’élément commun qui faisait fonctionner cet ensemble, c’était le cookie tiers. Il était le fil d’Ariane qui nous permettait de suivre l’utilisateur à travers les différents environnements. La grande force de ce système était sa réactivité. On pouvait lancer une campagne le lundi et savoir dès le mercredi si elle fonctionnait, s’il fallait réallouer les budgets, changer une création ou ajuster les ciblages. Cette agilité, nous la devons entièrement à la donnée individuelle et temps réel fournie par les cookies. C’est cette capacité à prendre des décisions rapides et éclairées qui a fait le succès et la croissance explosive de la publicité digitale. Cependant, cette puissance reposait sur une base fragile, une sorte de ‘je t’aime, moi non plus’ avec une technologie qui posait de plus en plus de questions en termes de respect de la vie privée. La fin de cette ère était donc inéluctable, nous forçant à repenser entièrement notre approche.

\n\n\n\n

La double révolution : pourquoi le monde de la mesure doit impérativement changer

\n\n

La disparition programmée du cookie tiers n’est pas un événement soudain ou un caprice technologique. C’est l’aboutissement d’une double pression, une prise en tenaille entre des évolutions réglementaires de fond et des décisions techniques prises par les géants qui contrôlent nos portes d’accès à internet : les navigateurs. Comprendre cette double dynamique est crucial pour saisir pourquoi le retour en arrière est impossible et pourquoi l’adaptation n’est pas une option, mais une nécessité absolue pour tous les acteurs du marketing.

\n\n

La pression réglementaire : du RGPD à l’ePrivacy, le consentement comme prérequis

\n\n

Le premier mouvement de fond est juridique. L’arrivée du RGPD (Règlement Général sur la Protection des Données) en Europe, suivie par d’autres réglementations similaires dans le monde, a marqué un tournant majeur. Il a placé le consentement de l’utilisateur au centre de toute collecte et de tout traitement de données personnelles. Et il est important de le souligner, cela concerne tous les types de cookies et d’identifiants.

\n\n

Avec l’arrivée effective de toutes les mesures légales avec le GDPR, l’ePrivacy qui ont conditionné le consentement et surtout la pose de cookie tiers et la pose de cookie first d’ailleurs, la pose de cookie tout court ou quel identifiant que ce soit qui est rattaché à un individu ou à un navigateur a un consentement.

\n\n

Cette exigence a complexifié la collecte de données. Les taux de consentement varient, et une partie significative des internautes refuse désormais le suivi. Cela a déjà érodé la base de données sur laquelle nos modèles de mesure reposaient. Le cookie tiers, déposé par un acteur que l’internaute ne connaît souvent pas, est devenu le symbole de ce suivi opaque que les régulateurs ont voulu encadrer. La relation de confiance se joue désormais entre l’utilisateur et le site qu’il visite (l’éditeur ou l’annonceur), et non avec un tiers invisible.

\n\n

La pression technique : quand les navigateurs sifflent la fin de la partie

\n\n

Le second mouvement, encore plus radical, est technique. Les navigateurs, qui sont notre fenêtre sur le web, ont décidé de reprendre le contrôle. Contrairement à une idée reçue, ce n’est pas Google qui a initié cette tendance. Safari (Apple) a ouvert le bal dès 2019 en bloquant par défaut les cookies tiers, suivi de près par Firefox en 2020. Ces deux navigateurs représentent déjà une part non négligeable du trafic, sur laquelle la mesure par cookie tiers est devenue inopérante. Google, avec son navigateur Chrome qui domine le marché européen à plus de 60%, était le dernier bastion. Sa décision de suivre le mouvement, bien que retardée, signe donc l’arrêt de mort définitif de cette technologie à grande échelle.

\n\n

Google a cependant adopté une approche différente. Plutôt que de simplement bloquer, ils ont décidé de travailler avec l’écosystème pour proposer un cadre de remplacement : la fameuse Privacy Sandbox. C’est une tentative de préserver les grands cas d’usage du marketing digital (ciblage, mesure, lutte contre la fraude) tout en éliminant le suivi individuel cross-site. Qu’on y voie une manœuvre pour renforcer sa position dominante ou une réelle volonté de collaborer, le fait est que cette initiative structure aujourd’hui toutes les discussions sur l’avenir de la mesure.

\n\n\n\n

Naviguer dans le brouillard : les solutions pour la mesure et l’attribution de demain

\n\n

Face à la disparition du cookie tiers, le marché n’est pas resté inactif. La bonne nouvelle, c’est qu’il n’y aura pas de vide. La mauvaise, c’est qu’il n’y aura pas non plus une solution unique et simple qui viendra remplacer ce que nous perdons. Nous entrons dans une ère de complexité et de fragmentation. Les annonceurs devront apprendre à composer avec un patchwork de solutions, chacune ayant ses forces, ses faiblesses et son propre périmètre. Le plus grand défi sera de réconcilier les données issues de ces différents silos pour obtenir une vision cohérente de la performance. Il faut s’y faire : le futur sera hybride ou ne sera pas.

\n\n

La Privacy Sandbox de Google : une boîte à outils complexe sous le contrôle du navigateur

\n\n

La solution la plus structurante, de par la position de Chrome, est sans conteste la Privacy Sandbox. Pour la mesure, Google propose une série d’APIs spécifiques, les ‘Measurement APIs’. Le changement de paradigme est total : la logique d’attribution et de mesure est déportée au sein même du navigateur. L’annonceur définit des règles, les transmet à Chrome, et ce dernier les applique en local avant de restituer un résultat agrégé et anonymisé. Fini l’accès à la donnée brute et individuelle.

\n\n

Concrètement, cela se divise en deux briques principales : l’Event API, qui donnera des informations sur les impressions et les clics de manière très limitée, et l’Aggregate API, qui fournira des rapports beaucoup plus détaillés sur les conversions. Le point crucial est qu’il sera impossible de lier les deux. On saura qu’on a généré X impressions et Y clics d’un côté, et Z conversions de l’autre, sans pouvoir dire que l’utilisateur A a converti après avoir vu la publicité B. De plus, ces informations ne seront plus disponibles en temps réel.

\n\n

Ces données-là ne seront plus fournies en temps réel. Seront fournies entre 24 heures et 7 jours après l’événement. […] Au mieux le lendemain, je vais avoir la donnée de la veille. C’est-à-dire hier vous avez généré tant d’impressions et tant de clics. Mais ni où, ni comment, ni quand et ni comment sur quel site etc.

\n\n

Cela signifie que la capacité d’optimisation intra-journalière des campagnes disparaît au profit d’une analyse a posteriori. On donne véritablement les clés du camion au navigateur, avec une capacité de contrôle et de vérification très limitée.

\n\n

Les identifiants uniques et ID Graphs : la promesse d’une vision individuelle, mais à quelle échelle ?

\n\n

En parallèle de l’approche agrégée de Google, une autre voie se développe : celle des identifiants uniques. Contrairement aux cookies, ces identifiants ne sont pas basés sur le navigateur mais sur une donnée personnelle déterministe fournie par l’utilisateur avec son consentement, comme une adresse email ou un numéro de téléphone haché. Des acteurs comme LiveRamp ou The Trade Desk sont très avancés sur ce sujet. L’avantage majeur est de pouvoir réconcilier le parcours d’un même individu à travers différents appareils (ordinateur, mobile, tablette), ce que le cookie ne permettait pas. On retrouve ici une vision individuelle et précise. Cependant, cette approche a deux limites majeures : sa portée (‘reach’) est beaucoup plus faible car elle ne couvre que les utilisateurs authentifiés sur les sites des éditeurs et annonceurs partenaires. De plus, le marché est extrêmement fragmenté, avec des dizaines d’acteurs qui ne se parlent pas, créant des silos de données. Des initiatives d’unification émergent, mais le chemin est encore long.

\n\n

Le grand retour de la donnée first-party et de la connaissance client sémantique

\n\n

Dans ce contexte, les données que l’annonceur collecte directement sur ses propres environnements (site web, application, CRM) deviennent de l’or en barre. La donnée ‘first-party’ n’est pas remise en cause, à condition que le consentement soit bien recueilli. Elle permet de comprendre finement le comportement de ses propres clients et prospects. L’enjeu est de l’activer au-delà de ses propres murs. C’est là que des approches innovantes, comme l’analyse sémantique que nous développons chez Weborama, prennent tout leur sens. En analysant les contenus et les sujets consultés par les internautes de manière anonyme et agrégée, nous pouvons construire une connaissance client riche et actionnable, complètement indépendante des cookies. Cela permet de comprendre les centres d’intérêt et les intentions d’une audience sans avoir besoin de la suivre à la trace, en se basant sur le contexte de sa navigation.

\n\n\n\n

De la théorie à la pratique : comment les annonceurs doivent se réorganiser dès aujourd’hui

\n\n

La transition vers un monde ‘cookieless’ n’est pas qu’un simple défi technique à déléguer à ses agences ou à ses prestataires. C’est un changement stratégique profond qui doit être piloté au plus haut niveau au sein des entreprises. Attendre que les solutions soient parfaitement matures et standardisées pour commencer à s’adapter serait une grave erreur. L’heure n’est plus à l’observation, mais à l’action. Les annonceurs qui réussiront demain sont ceux qui commencent à transformer leur organisation, leurs compétences et leur culture de la mesure dès aujourd’hui. C’est un chantier complexe qui s’articule autour de trois axes majeurs : l’acceptation d’un nouveau paradigme, la réorganisation des équipes et la redéfinition des indicateurs de succès.

\n\n

Accepter le changement de paradigme : de l’individu à la cohorte, du temps réel au différé

\n\n

Le premier pas, et peut-être le plus difficile, est d’ordre culturel. Nous devons faire le deuil de la donnée individuelle, exhaustive et en temps réel qui a été notre Graal pendant quinze ans. Le futur de la mesure à grande échelle sera probabiliste, agrégé et différé. Il faut accepter une part d’incertitude et apprendre à prendre des décisions à partir de signaux différents, basés sur des cohortes ou des groupes d’utilisateurs. Cela ne signifie pas que la mesure sera moins précise, mais elle sera différente. On ne cherchera plus à savoir si ‘Jean Dupont’ a acheté après avoir vu telle bannière, mais plutôt si le groupe des ‘intentionnistes auto’ exposé à la campagne A a généré plus de valeur que le groupe non exposé. C’est un changement de mentalité fondamental qui doit infuser toutes les strates de l’entreprise, du trader média au directeur marketing.

\n\n

Bâtir des équipes internes capables de jongler avec la complexité

\n\n

Cette nouvelle complexité ne pourra plus être entièrement externalisée. Les annonceurs doivent monter en compétence et se doter de ressources internes capables de piloter cette transformation. Le ‘chef de projet mesure’ de demain sera un profil hybride, à la fois technique, statistique et business.

\n\n

La première chose qu’ils doivent faire, c’est créer des équipes en interne qui vont être capables de jongler avec plusieurs plateformes, qui vont aller regarder ce qui se passe dans la Privacy Sandbox, qui vont regarder ce qui se passe avec les identifiants uniques, avec les first party cookies […] et pouvoir trouver des moyens en interne de faire du sens de tout ça. Donc ça veut dire une réorganisation de la mesure.

\n\n

Ces équipes auront la charge de tester les différentes solutions, de choisir les bons partenaires, et surtout, de construire une couche de ‘business intelligence’ interne capable de réconcilier les données issues de la Privacy Sandbox, des ID uniques, des outils d’analytics ‘first-party’ et des modèles statistiques comme le MMM. L’enjeu est de recréer une vision unifiée de la performance à partir de sources hétérogènes. Cela implique des investissements dans les outils (CDP, data warehouses) mais surtout dans les cerveaux capables de les faire parler.

\n\n

Repenser ses KPIs pour un monde post-cookie

\n\n

Qui dit nouvelle mesure, dit nouveaux indicateurs de performance (KPIs). S’accrocher à des KPIs conçus pour un monde de cookies tiers, comme le Coût Par Acquisition (CPA) ou le Return On Ad Spend (ROAS) calculés au niveau individuel, pourrait s’avérer contre-productif. Il devient crucial de réfléchir à des KPIs qui sont mesurables dans ce nouvel environnement. On parlera sans doute davantage de ‘lift’ incrémental, de la valeur générée par cohorte, ou de modèles d’attribution qui ne se basent plus sur une succession d’événements individuels mais sur des modélisations statistiques. Il s’agit de trouver le bon équilibre entre les indicateurs directionnels à court terme, issus des plateformes, et les indicateurs de performance business à plus long terme, mesurés en interne.

\n\n\n\n

Conclusion : un avenir non pas sombre, mais différent et plein d’opportunités

\n\n

Le tableau que nous venons de brosser peut sembler complexe, voire un peu ‘dark’ pour ceux qui étaient habitués au confort du monde du cookie tiers. Pourtant, il est essentiel de ne pas voir cette transition comme une fin, mais comme un nouveau départ. Oui, nous allons perdre en granularité individuelle et en réactivité immédiate. C’est un fait. Mais cette contrainte nous force à être plus intelligents, plus stratégiques et, finalement, plus respectueux des utilisateurs. Ce n’est pas un tableau noir, c’est une page blanche sur laquelle nous devons réécrire les règles de la mesure marketing.

\n\n

L’avenir exigera de nous tous, marketeurs, une plus grande agilité intellectuelle. Nous devrons apprendre à réconcilier des données de natures différentes, à faire confiance à des modèles statistiques et à accepter une part d’imperfection. Mais cet avenir ouvre aussi des portes passionnantes. L’importance croissante de la data first-party va pousser les marques à créer de vraies relations de confiance avec leurs clients. L’essor de l’analyse sémantique et contextuelle nous ramène aux fondamentaux du marketing : comprendre les besoins et les centres d’intérêt réels des consommateurs, plutôt que de se contenter de les suivre à la trace. En somme, nous passons d’une ère de suivi à une ère de compréhension. C’est un défi immense, mais c’est aussi une formidable opportunité de construire un écosystème publicitaire plus durable et plus pertinent pour tous.

\n\n


\n\n

Foire Aux Questions (FAQ) sur la mesure marketing à l’ère du cookieless

\n\n

Pourquoi la fin du cookie tiers impacte-t-elle autant la mesure marketing ?

\n

La fin du cookie tiers est un véritable séisme car il était la technologie fondamentale qui permettait de créer un ‘langage commun’ à travers tout l’écosystème publicitaire digital. Il fonctionnait comme un fil conducteur permettant de suivre un même utilisateur anonyme d’un site à l’autre. Cette capacité était essentielle pour connecter l’exposition à une publicité sur un site média à une action ultérieure (visite, achat) sur le site d’un annonceur. Sans ce fil, la chaîne de mesure se brise, rendant l’attribution directe et le suivi de parcours client cross-domaine extrêmement complexes, voire impossibles avec les anciennes méthodes.

\n

‘La mesure et l’attribution aujourd’hui sont possibles en grande partie en temps réel grâce au cookie tiers qui a permis de créer un système homogène. Aujourd’hui, on est capable de suivre un internaute quasiment à la trace, d’avoir un parcours utilisateur…’

\n\n

La Privacy Sandbox de Google est-elle la seule solution pour l’avenir ?

\n

Non, et c’est un point crucial. La Privacy Sandbox est une solution majeure en raison de la part de marché dominante du navigateur Chrome, mais elle n’est qu’une pièce du puzzle. Le futur de la mesure reposera sur la combinaison de plusieurs approches : les données first-party (celles que l’annonceur collecte sur ses propres sites), les identifiants uniques basés sur le consentement (email, etc.), les solutions de mesure contextuelle et sémantique, ainsi que des modèles statistiques plus globaux comme le Marketing Mix Modeling. La principale difficulté pour les annonceurs sera de savoir comment agréger et réconcilier les informations provenant de ces différentes sources pour obtenir une vision cohérente.

\n

‘Il n’y a pas une seule solution, comme pour le ciblage en fait, on n’a pas une seule solution qui va remplacer à 100 % la connaissance que nous avons avec le Tarty cookie. Donc vraiment il faut s’y faire à l’idée qu’on aura très peu d’informations individualisées.’

\n\n

Perdra-t-on complètement la capacité de mesurer en temps réel ?

\n

En grande partie, oui, du moins pour la mesure d’attribution cross-site telle qu’elle est pratiquée aujourd’hui. Les nouvelles solutions, notamment les Measurement APIs de la Privacy Sandbox, introduisent des délais volontaires pour protéger la vie privée. Les rapports ne seront plus disponibles instantanément mais avec un décalage pouvant aller de 24 heures à plusieurs jours. Cela met fin à la possibilité d’optimiser une campagne ‘à la volée’ au cours d’une même journée. Les marketeurs devront passer d’une logique de réaction immédiate à une logique d’analyse a posteriori pour ajuster leurs stratégies sur des cycles plus longs.

\n

‘Ces données-là ne seront plus fournies en temps réel. Seront fournies entre 24 heures et 7 jours après l’événement. […] C’est-à-dire hier vous avez généré tant d’impressions et tant de clics. Mais ni où, ni comment, ni quand…’

\n\n

Qu’est-ce qu’une mesure ‘agrégée’ et en quoi est-ce différent de la mesure ‘user-centric’ ?

\n

La mesure ‘user-centric’ se focalisait sur le suivi d’un individu (ou plus précisément, d’un navigateur) à travers son parcours digital pour comprendre ses actions spécifiques. La mesure ‘agrégée’, qui est le nouveau standard, consiste à analyser des groupes d’utilisateurs, ou ‘cohortes’, sans jamais pouvoir isoler les données d’une seule personne. Par exemple, au lieu de savoir que ‘l’utilisateur X a vu la pub A puis a acheté le produit B’, on saura que ‘le groupe d’utilisateurs exposé à la pub A a généré 100 conversions’. C’est un changement fondamental qui nous fait passer d’une analyse comportementale individuelle à une analyse statistique de groupe.

\n

‘On va être dans un monde totalement agrégé. On aura plus les accès aux données individualisées sauf dans quelques rares cas mais la plus grande partie en fait des données dont on va disposer seront agrégées. Donc on va travailler sur des cohortes plutôt.’

\n\n

Les données que je collecte sur mon propre site (first-party) sont-elles menacées ?

\n

Non, heureusement. Les cookies ‘first-party’, c’est-à-dire ceux déposés par le site que l’utilisateur visite directement, ne sont pas remis en question par les navigateurs. Ils considèrent qu’il existe une relation directe et de confiance entre le visiteur et le site. Vous pourrez donc continuer à analyser ce qui se passe sur vos propres environnements (pages vues, temps passé, conversions). La seule contrainte, mais elle est de taille, est que ces données sont soumises au consentement de l’utilisateur en vertu du RGPD. De plus, leur utilité est limitée à votre propre ‘domaine’ ; elles ne permettent pas de faire le lien avec ce que l’utilisateur a fait avant d’arriver chez vous.

\n

‘Si les first party cookies, c’est-à-dire les cookies déposés par un annonceur ou par un éditeur dans ses propres environnements ne sont pas remis en question et heureusement. […] L’annonceur, il continuera en fait de son côté à pouvoir s’appuyer sur sa first party data.’

\n\n

Quelle est la première action qu’un annonceur devrait entreprendre face à ces changements ?

\n

La première action, et la plus urgente, est interne. Il s’agit de commencer à construire une équipe ou au moins à dédier des ressources pour comprendre, tester et intégrer ces nouvelles complexités. Il ne faut plus considérer la mesure comme un sujet purement technique et externalisé. Les entreprises doivent se réapproprier cette compétence stratégique. Cette équipe devra être capable de dialoguer avec les différentes plateformes (Google, solutions d’ID, etc.), de mettre en place des tests et de commencer à réfléchir à une infrastructure interne pour collecter et réconcilier les différentes sources de données de demain. C’est une réorganisation de fond.

\n

‘Si les annonceurs doivent faire quelque chose aujourd’hui, c’est penser à ça, c’est penser à cette réorganisation là et à la préparer demain.’

\n


Épisodes similaires