ia dans le marketing digital

#108> AI > Comprendre la place de IA dans le marketing digital

Épisode diffusé le 18 décembre 2024 par Bannouze : Le podcast du marketing digital !

Écouter l'épisode :

0:00 --:--
Vitesse

L’ia dans le marketing digital n’a pas commencé avec ChatGPT. Elle a commencé quand Criteo essayait de deviner si ton visiteur qui cherchait des baskets allait vraiment en acheter une paire – ou s’il regardait juste pour passer le temps. C’était rugeux, souvent faux, mais c’était là. Laurent Duverney-Guichard, co-fondateur de Spyne et dinosaure assumé du secteur avec plus de 15 ans de marketing digital dans les pattes, a remis les pendules à l’heure sur le podcast Bannouze. Et ce qu’il a dit mérite qu’on s’y attarde vraiment.

Pas pour faire un résumé d’épisode. Mais parce que la manière dont il raconte l’histoire – depuis les premiers algorithmes de retargeting jusqu’aux modèles probabilistes actuels – dit quelque chose d’important sur ce que le secteur a souvent préféré ne pas voir.

Avant les buzzwords, il y avait déjà l’ia dans le marketing digital

Remontons. Avant même qu’on ose prononcer le mot ‘intelligence artificielle’ dans une présentation PowerPoint, il y avait des boîtes qui faisaient du ciblage comportemental. Les ancêtres de Criteo – les Drive PM, les premiers acteurs du retargeting – allaient chercher les visiteurs, leurs voisins statistiques, les profils similaires.

Laurent appelle ça les ‘prémices’. Moi j’appelle ça de l’IA qu’on ne nommait pas encore IA parce que ça aurait fait peur aux clients.

On en parle depuis longtemps parce que comme on est dans le marketing et qu’on a des marketeurs, on met le label Buzz World IA dès qu’on a pu le mettre sur quoi que ce soit même si ça n’y ressemblait pas de près ou de loin.

Voilà. Quinze ans de storytelling résumés en une phrase.

Le vrai tournant, selon lui, c’est l’arrivée du programmatique. Et pas pour les raisons qu’on entend d’habitude. La vraie révolution, c’est la décorrélation entre la data et le contexte. Avant, tu achetais tes données avec le contexte éditorial, ou alors tu bidouillais des cascades de passback entre des ad serveurs – parfois 20 ou 30 passback – avec des latences de plusieurs secondes. C’était, selon ses mots, ‘catastrophique’. Le programmatique en vidéo et display a tout changé sur ce point précis.

C’est à ce moment que des boîtes comme Rocket Fuel ou Quantcast ont surfé sur une vague d’IA appliquée aux audiences. Rocket Fuel a fait une belle IPO. Puis s’est effondré. Laurent le dit avec une désinvolture qui cache mal un agacement légitime : ces modèles étaient ‘très très boîte noire’, à la frontière entre l’algorithme statistique classique et quelque chose qui ressemblait vraiment à de l’intelligence artificielle.

Pmax et Advantage+ : quand la boîte noire s’agrandit

Aujourd’hui, deux noms dominent la conversation sur l’ia dans le marketing digital côté achat média : Performance Max chez Google et Advantage+ chez Meta. Et ce qu’ils ont en commun, c’est leur avantage structurel – un avantage que personne d’autre ne peut répliquer.

La donnée. Pas un peu de donnée. Des milliards de points de data sur chaque utilisateur, chaque campagne passée, chaque signal d’intention. Qu’ils ne partagent pas. Qu’ils traitent en interne. Et dont ils se servent pour maximiser leurs revenus par page – pas forcément tes performances à toi, même si les deux peuvent coïncider.

La boîte noire s’agrandit pour prendre plus de part dans la chaîne de valeur. De plus en plus sur – je vais t’aider en aval sur le landing page, je vais t’aider en amont sur les créas, évidemment sur le ciblage, sur le prix que tu vas payer, sur tous les canaux que tu vas pouvoir avoir.

Dit comme ça, c’est presque confortable. Mais la question que personne ne pose vraiment, c’est : qui optimise pour qui ?

Les débuts de Pmax ont été ‘un peu houleux’ selon Laurent. C’est un euphémisme. Les agences qui ont subi les premières phases de déploiement savent de quoi il s’agit. Aujourd’hui, le produit s’est amélioré – et surtout, Google a rendu le basculement quasi inévitable en poussant les annonceurs vers l’automatisation via ses incentives aux agences. Tu n’as pas vraiment le choix de ne pas tester Pmax. C’est ça, la vraie stratégie.

Et pendant ce temps, côté Facebook, l’évolution de Meta vers l’automatisation suit exactement le même chemin – moins de contrôle pour les annonceurs, plus de confiance accordée à l’algorithme.

La semaine perdue à programmer 250 créas

Ce moment de l’épisode m’a arrêté net. Laurent raconte une époque – pas si lointaine – où préparer 250 créas sur cinq formats avec des variations de couleurs pour tester les accroches prenait une semaine entière à une équipe d’ops.

Une semaine. Pour des créas qui, au final, ne produisaient aucun enseignement statistiquement significatif parce qu’il n’y avait pas la capacité d’analyser les données derrière.

Je me rappelle d’une époque où pour programmer 250 créas sur cinq formats avec des couleurs différentes pour essayer de voir qui accrocherait plus sur quel ciblage, ça prenait une semaine à l’équipe Aps. Qui a été après incapable d’en tirer des enseignements parce que il y avait aucune capacité d’en tirer de la significativité statistique.

C’est exactement le problème. Et c’est pour ça que la déclinaison créative automatisée – pas la création from scratch, mais la déclinaison – est probablement l’application la plus utile et la moins controversée de l’ia dans le marketing digital aujourd’hui. Tu as ta créa maîtresse, tu la déclines en un clic sur tous tes formats, tous tes réseaux, avec le CTA repositionné correctement. Ce qui prenait une semaine prend maintenant une heure. Et la capacité d’analyse a suivi, du coup.

Sur la stratégie SEA et les enjeux de 2025, cette évolution de la créa automatisée va changer en profondeur comment on pense le testing publicitaire.

Ce que l’IA ne sait pas faire – et c’est là que ça devient intéressant

Un crash d’avion. Une élection américaine. Une promotion surprise d’un concurrent. Trois situations que n’importe quel account strategist intègre en trente secondes. Trois situations que les meilleurs modèles d’ia dans le marketing digital gèrent… mal.

Laurent est précis là-dessus. Les modèles savent tout ce qu’on leur a donné. Les dix dernières années de campagnes, les Black Friday, les saisonnalités, les CPC concurrentiels. Mais ce qu’ils ne savent pas, c’est le contexte vivant – ce que lui appelle ‘une liste d’éléments de contexte qui sont aujourd’hui infinis et qui sont assez faciles à intégrer pour un humain qui vit dans cet univers’.

Et là, il glisse une phrase qui m’a scotché :

C’est un peu flippant quand même pour le futur en fait, même en terme de purement de job. Dans 5 ans, il y a plus d’account stratégi. Ou leur travail a évolué.

Il se reprend immédiatement – ‘c’est pas l’objet de ce podcast’ – mais le truc est dit. Ce qu’il décrit en creux, c’est un glissement. Pas une disparition brutale, mais une évaporation progressive des tâches d’intendance opérationnelle. Gérer des enchères, surveiller des KPI sur dix canaux et vingt formats dans huit pays… ça fait trop de choses pour un humain, trop peu pour une machine correctement configurée.

La vision qu’il défend : un modèle copilote. L’IA crunch les données, fait remonter les signaux. L’humain prend le mémo et décide. Pour combien de temps ? Bonne question.

(Ce qui m’agace dans ce débat, c’est qu’on présente souvent ça comme une évolution douce et naturelle. Mais pour les juniors en agence qui apprenaient leur métier en faisant justement ces tâches d’intendance, c’est autre chose.)

Modèles probabilistes : comprendre le bug qui n’en est pas un

Voilà un point technique que Laurent explique avec une clarté inhabituelle. Et qui change vraiment la manière dont on doit utiliser l’ia dans le marketing digital au quotidien.

Les LLM – ChatGPT, Claude, et tous les autres – sont des modèles probabilistes. Concrètement : ils ne cherchent pas la bonne réponse. Ils cherchent le terme qui a le plus de probabilités d’être correct compte tenu du contexte. À chaque token. Un après l’autre.

Conséquence directe : si tu poses 100 fois la même question, tu auras 97 fois quelque chose de pertinent. Mais pas la même réponse. Et 2 à 3 fois, tu auras ce qu’on appelle des hallucinations – des réponses créatives, confiantes, et complètement fausses.

C’est pas un bug, c’est une feature du modèle. Ce ne sont que des modèles qui vont travailler sur des probabilités. Donc il faut prendre ça en compte et se dire dès que je vois quelque chose qui me paraît vraiment anormal, je repose la même question, je refais la même requête.

Ce n’est pas rassurant à 100%. Mais c’est honnête. Et c’est la bonne posture : traiter les outputs de ces modèles comme des hypothèses à valider, pas comme des vérités à copier-coller. (Ce qui est rare dans le secteur, où la tentation de tout déléguer à la machine sans relecture est réelle – et souvent coûteuse.)

Le deuxième point qu’il soulève – et c’est peut-être le plus important pour les praticiens – c’est la spécificité des corpus d’entraînement. Ces modèles sont généralistes par construction. Ils ont ingéré de la médecine, du droit, de la cuisine, de la physique quantique. Le marketing digital dans ses subtilités les plus fines ? C’est une portion congrue du corpus total.

D’où l’importance croissante du RAG (Retrieval Augmented Generation) et du fine-tuning : alimenter le modèle avec tes propres données, tes propres références, tes propres logiques métier. Laurent dit que ça lui a pris un an pour arriver à des réponses cohérentes sur les spécificités de son secteur. Un an. Pas une semaine, pas un prompt bien ficelé – un an de travail itératif.

Ce travail d’alimentation des modèles croise d’ailleurs directement les problématiques de data clean rooms : la question de quelles données tu peux utiliser, comment, et avec qui tu les partages, devient centrale dès qu’on parle d’entraîner ou de contextualiser un modèle.

Où apprendre – et pourquoi fuir les ressources ‘spécialisées IA’

Sa recommandation sur les ressources m’a surpris. Pas dans le sens attendu.

Il déconseille les ressources spécialisées IA. Trop de bruit, trop de micro-actualités, trop de ‘réunions de plombier’ où on parle de petites améliorations qui ne font pas avancer la compréhension globale. Sa liste à lui :

  • Product Hunt : 30 à 40% des produits présentés sont liés à l’IA aujourd’hui, avec un système de vote qui fait le tri. C’est de la curation passive – tu passes dix minutes, tu vois ce qui émerge.

Hacker News – le blog de Y Combinator – pour la richesse éditoriale. ‘Ça ressemble à un site de 2010’, dit-il sans complexe. Et c’est justement pour ça que ça marche : pas de dark patterns, pas d’algorithme de rétention, juste du contenu sélectionné par des gens qui savent de quoi ils parlent.

Et Three Blue One Brown sur YouTube – une chaîne de vulgarisation mathématique, pas tech, pas marketing. Pour comprendre comment les modèles fonctionnent vraiment, sans les couches de storytelling habituelles. Parce que, comme il le dit : ‘en fait ce ne sont entre guillemets que des mathématiques’.

Sur les outils eux-mêmes, il distingue deux approches. Les outils cloud – ChatGPT, Claude, Perplexity, Mistral – pour commencer, tester, se faire une culture. Et les modèles en local – Meta Llama, Mistral en open source – pour les cas d’usage où la confidentialité des données compte. Un laptop avec 32 Go de RAM suffit pour faire tourner des modèles corrects. Moins performants que ChatGPT-4, mais ‘très largement suffisant pour énormément d’applications’.

La question de la protection des données et du cookieless reste d’ailleurs un contexte de fond qui influence directement ces choix technologiques : si tu peux faire tourner un modèle en local sans que tes données sortent, tu n’as pas à te poser certaines questions.

Et puis il dit quelque chose qui sonne vrai : ‘après il faut se faire sa religion, choisir sa chapelle, et délivrer au quotidien’. Tester 50 modèles en permanence, c’est ne rien maîtriser. Choisir un stack, le creuser, construire dessus – c’est ce qui produit de la valeur réelle.

Ce que j’aurais voulu qu’on me dise plus tôt – enfin, ce que j’aurais dû entendre – c’est exactement ça : l’ia dans le marketing digital n’est pas un sprint de veille technologique. C’est un travail de fond, de contextualisation, d’alimentation progressive des modèles avec les spécificités de ton métier. La plupart des gens passent à côté de ça en cherchant le prompt magique qui règle tout.

Il n’existe pas. Mais bon.

Questions fréquentes

C'est quoi l'ia dans le marketing digital concrètement ? +
L'ia dans le marketing digital recouvre tout ce qui automatise ou augmente les décisions publicitaires : ciblage comportemental, optimisation des enchères, génération de créas, pilotage de campagnes. Ce n'est pas nouveau - Criteo et les premiers acteurs du retargeting faisaient déjà de l'IA dans les années 2000, sans l'appeler ainsi. Aujourd'hui, les formes les plus visibles sont Performance Max chez Google et Advantage+ chez Meta.
Performance Max est-il vraiment piloté par l'ia dans le marketing digital ? +
Oui, et c'est là que ça devient intéressant. Google dispose d'un volume de données sur les utilisateurs et les campagnes passées qu'aucun acteur tiers ne peut répliquer. Pmax exploite cette data pour prendre les décisions de ciblage, d'enchères, de formats et de canaux. Le revers : c'est une boîte noire totale. Les débuts ont été difficiles pour beaucoup d'annonceurs, les résultats s'améliorent progressivement.
Comment utiliser l'ia dans le marketing digital sans tomber dans les hallucinations ? +
Les modèles LLM comme ChatGPT sont probabilistes - ils produisent la réponse statistiquement la plus probable, pas nécessairement la correcte. Sur 100 requêtes identiques, 2 à 3 peuvent produire des réponses aberrantes. La règle pratique : toujours recouper, reformuler, relancer la même demande plusieurs fois avant de valider un output. Ne jamais traiter un résultat comme définitif sans vérification.
Quelles ressources pour se former à l'IA en marketing sans se noyer ? +
Laurent Duverney-Guichard conseille de fuir les ressources hyper-spécialisées IA qui noient dans le bruit. Sa liste : Product Hunt pour découvrir les outils avec un filtre par votes, Hacker News pour la qualité éditoriale, et la chaîne YouTube Three Blue One Brown pour comprendre les fondamentaux mathématiques des modèles. Moins de volume, plus de profondeur.
Peut-on faire tourner un modèle d'ia dans le marketing digital en local ? +
Oui, et c'est sous-estimé. Avec 32 Go de RAM sur un laptop, on peut installer des modèles open source comme Llama de Meta ou Mistral. Les performances sont inférieures à ChatGPT, mais largement suffisantes pour de nombreux cas d'usage. L'avantage principal : les données ne sortent pas de la machine, ce qui règle une bonne partie des questions de confidentialité.
L'ia va-t-elle remplacer les account managers en agence ? +
C'est la question que tout le monde évite de poser franchement. Selon Laurent Duverney-Guichard, les tâches d'intendance opérationnelle - surveillance des KPI sur des dizaines de canaux, ajustements d'enchères, reporting - sont clairement dans le viseur. Ce qui résiste : la capacité à intégrer le contexte vivant (actualité, décisions concurrentielles, événements imprévisibles) que les modèles actuels ne savent pas gérer. Le modèle copilote - l'IA qui crunch, l'humain qui décide - semble être l'horizon à court terme.

Épisodes similaires

  • Social Ads & Acquisition