ab testing facebook ads

Comment faire des tests A/B sur Facebook ads ? | #AskDanilo E16

Épisode diffusé le 2 septembre 2021 par Danilo Duchesnes

Écouter l'épisode :

0:00 --:--
Vitesse

Faire de l’ab testing facebook ads sans méthode, c’est exactement comme tester la couleur d’un bouton pendant que ta landing page ne convertit pas. Tu t’agites, tu changes des trucs, tu n’apprends rien. Danilo Duchesnes – consultant Facebook Ads et animateur du podcast Le Rendez-vous Marketing – a un avis assez tranché là-dessus : le problème n’est pas de ne pas tester, c’est de tout tester en même temps.

Et franchement, il a raison. La majorité des annonceurs que je croise basculent entre deux postures : soit ils ne testent jamais rien (ils tournent sur les mêmes créas depuis huit mois), soit ils balancent dix variantes simultanément et n’arrivent plus à lire leurs propres données. L’ab testing devient du bruit.

Ce que Danilo explique dans cet épisode d’Ask Danilo, c’est quelque chose de plus sobre – et du coup, beaucoup plus utilisable. Une logique de test en entonnoir, avec des priorités claires et une campagne dédiée. Pas de magie. Juste de la rigueur.

Pourquoi l’ab testing facebook ads ressemble rarement à un vrai AB test

Le test AB classique, tout le monde connaît. Bouton vert contre bouton rouge sur une landing page, on mesure le taux de clic, on garde le gagnant. Simple, propre, scientifique. Sur Facebook, c’est rarement aussi lisible.

Les variables sont trop nombreuses. L’algorithme diffuse différemment selon les heures, les audiences, la concurrence sur la même tranche horaire. Un créatif peut sur-performer un lundi matin et planter le mercredi suivant sans que tu comprennes pourquoi. Du coup, l’ab testing sur Facebook demande une discipline que beaucoup sous-estiment.

Danilo le formule clairement :

« Faire de l’AB testing, c’est quelque chose de très scientifique, donc il faut éviter de faire trop de tests en même temps – éviter par exemple de faire des tests d’audience, de publicité, d’offres, de créa et encore de landing page en même temps parce que vous n’allez pas vous en sortir. »

Voilà. Dit en une phrase ce que la plupart des guides de 3000 mots n’arrivent pas à faire passer.

La tentation, c’est le test parallèle massif. Tu as cinq créatifs, trois audiences, deux offres différentes – tu lances tout, tu attends une semaine, et tu regardes quel ensemble gagne. Sauf que tu ne sais pas ce qui a gagné. Le créatif ? L’audience ? L’offre ? L’algorithme a tout mélangé. Tu as dépensé ton budget et tu n’as rien appris de structuré.

C’est exactement le problème que l’ab testing facebook ads est censé résoudre – et que la majorité des comptes reproduit quand même.

La campagne de test dédiée : ce que personne ne fait vraiment

Danilo propose une approche que j’avais rarement vue formulée aussi concrètement : une campagne séparée, appelée littéralement ‘campagne de tests’, avec une audience large et stable, dans laquelle passent toutes les nouvelles idées avant d’aller en production.

L’audience utilisée dans cette campagne ? Une Lookalike 5 à 10% des clients existants, ou du broad targeting. Le principe : garder la variable d’audience constante pour que ce qui change – le créatif, le message, le format – soit vraiment la seule variable testée.

« On a une campagne dédiée pour nos tests. On y met une audience qui est généralement large, ça peut être une Lookalike des clients qui va être une Lookalike 5 ou 10%. Ça peut être un broad targeting, et on va y mettre toutes les nouvelles publicités qu’on a envie de tester et qu’on va ensuite intégrer dans notre campagne de production. »

Ce qui m’a frappé là-dedans, c’est la séparation nette entre test et production. La plupart des comptes que j’ai vus dans ma carrière mélangent les deux – on teste dans la campagne de performance, on espère que ça ne plombe pas les résultats. Spoiler : ça les plombe.

La logique de la campagne dédiée force aussi une discipline de lecture. Si ta campagne de test a toujours la même audience, tu peux comparer les créatifs entre eux de manière beaucoup plus fiable. Et une fois qu’un créatif gagne, il passe dans la campagne de production avec une vraie légitimité. Il a été testé dans des conditions contrôlées.

Il mentionne aussi la fonctionnalité native d’ab testing de Facebook – celle qui permet de diviser une audience en échantillons aléatoires et de leur envoyer des variantes différentes. Danilo est honnête dessus : ça reste intéressant pour tester des messages sur des campagnes qui ont exactement les mêmes audiences et les mêmes visuels, mais il ne la recommande plus pour les tests de placement. (Ce qui était une pratique courante il y a quelques années – ça donne une idée de la vitesse à laquelle les bonnes pratiques Facebook se périment.)

Sur la question du ciblage par centres d’intérêt versus Lookalike, il revient aussi plus loin dans l’épisode – c’est un test qu’il fait régulièrement sur ses propres comptes.

Quoi tester en premier – et pourquoi la réponse n’est pas celle qu’on croit

Si tu poses la question ‘par quoi je commence mon ab testing facebook ads’ à dix consultants différents, tu vas avoir dix réponses différentes. Audiences, créatifs, messages, formats – chacun a sa religion.

Danilo tranche. Et sa réponse surprend un peu.

« Ce qui est le plus puissant finalement, c’est ce que vous vendez. Donc le produit ou l’offre. Si vous avez qu’un seul produit, vous pouvez tester différentes offres pour ce même produit. Donc par exemple, je vends des matelas – je pourrais tester une offre de réduction, je pourrais tester une offre de livraison offerte, je pourrais peut-être mettre en avant le fait que le matelas, on peut le garder pendant 100 nuits. »

Le produit et l’offre avant tout. Pas le créatif. Pas le format.

Ce que j’aurais voulu qu’on me dise – enfin, ce que j’aurais voulu comprendre plus tôt – c’est que la plupart des comptes Facebook qui peinent à scaler n’ont pas un problème de créatif. Ils ont un problème d’offre. Tu peux avoir le meilleur reel de l’univers : si l’offre n’est pas assez forte, tu dépenses pour rien.

Deuxième priorité : le format. Vidéo, image statique, carrousel, collection. Danilo est honnête là-dessus :

« Honnêtement, je ne le sais pas. Il faut le tester pour savoir ce qui aura le plus d’impact. »

C’est une des phrases que j’aime bien dans cet épisode (et c’est rare dans le monde du conseil Facebook où tout le monde a l’air de savoir exactement ce qui marche). Le format gagnant dépend du secteur, du produit, de l’audience. Il n’y a pas de réponse universelle. Il faut tester. Et faire confiance aux données plutôt qu’aux intuitions.

Pour les e-commerçants qui ont plusieurs gammes, Danilo recommande de commencer par tester les produits entre eux. Sneakers contre boots contre derbys – tu cherches quel produit génère le plus de clics et de ventes avant même d’optimiser les créatifs autour de lui. Ca évite de passer trois mois à construire une stratégie créative autour d’un produit qui ne convertit pas structurellement.

Sur la question de tester plusieurs produits sur la même cible, il y a d’ailleurs un épisode entier dédié dans la même série – c’est un angle qu’il creuse régulièrement.

Les créatifs qui font vraiment la différence en ab testing facebook ads

Aujourd’hui sur Meta, les créatifs font 80% du boulot. C’est pas moi qui le dis – c’est le consensus assez large dans le milieu depuis que le ciblage s’est considérablement élargi avec les mises à jour successives de l’algorithme. Le ciblage fin d’avant, avec ses intérêts hyper-segmentés, c’est une époque un peu révolue.

Ce qui reste, c’est la créa. Et sur les créas, Danilo liste des tests qu’il trouve vraiment intéressants – pas la liste exhaustive théorique, mais ce qui produit des learnings exploitables.

Le test image contre vidéo animée (GIF plutôt que vidéo longue) donne souvent des résultats surprenants. Tu prends exactement le même visuel, tu en fais une version statique et une version animée. L’animation coûte peu à produire, et l’écart de performance peut être significatif dans un sens comme dans l’autre.

Le test des éléments de proposition de valeur – c’est peut-être celui que j’aurais mis en premier si j’avais rédigé cet épisode moi-même. Tu vends des bijoux plaqué or ? Tu peux mettre en avant le matériau, ou le fait que c’est artisanal, ou la livraison gratuite, ou les retours faciles. Ce sont quatre angles différents pour le même produit. Et selon ton audience, l’un va résonner beaucoup plus fort que les autres. Sans test, tu choisis à l’instinct. Avec un test, tu sais.

Et puis il y a le test qui m’a le plus intrigué dans l’épisode :

« Pour la joaillerie, on a remarqué que quand on met en avant juste le produit et qu’il y a pas forcément une personne à côté ou qui le porte, ça fonctionne mieux que quand on met en avant justement la personne qui va porter le bijou. Peut-être parce que le bijou, on a vraiment le besoin de le voir de très près pour se dire que c’est un bijou qui est fait pour nous. »

Contre-intuitif. Toute la logique lifestyle du e-commerce dit qu’on vend du rêve, pas du produit. Et là, sur la joaillerie spécifiquement, le produit seul performe mieux. Parce que le détail compte, et que sur mobile tu veux voir le bijou, pas la personne qui le porte.

C’est exactement le genre de learning qu’on ne trouve pas dans les bonnes pratiques génériques. C’est le genre de truc que tu découvres en testant, ou en écoutant quelqu’un qui a testé.

Pour aller plus loin sur les formats créatifs qui fonctionnent, l’épisode sur les meilleurs types de vidéo ads sur Facebook est un bon complément – il détaille ce qui marche côté vidéo spécifiquement.

Combien d’impressions avant de décider – et comment lire les résultats

5 000 à 8 000 impressions minimum avant de tirer une conclusion. C’est le seuil que Danilo donne, et c’est honnêtement en dessous de ce que certains consultants recommandent – mais avec 20 à 30 euros par jour, tu atteins ça en une semaine environ.

L’indicateur principal : le coût par résultat. Coût par achat si tu fais de la conversion, coût par lead si tu fais de la génération de prospects. Et le ROAS si tu as des campagnes avec du revenu attribuable.

Ce qui manque un peu dans l’épisode – et c’est une limite que j’assume de signaler – c’est la question du niveau de confiance statistique. 8 000 impressions avec 5 conversions, c’est pas la même chose que 8 000 impressions avec 200 conversions. Le volume de conversions compte autant que le volume d’impressions pour valider un test. Sur des comptes avec des budgets modestes et des produits à ticket élevé, tu peux passer plusieurs semaines sans avoir assez de données pour conclure proprement.

Mais bon, pour la grande majorité des e-commerçants qui dépensent entre 500 et 3 000 euros par mois, la règle des 8 000 impressions est un bon garde-fou. Elle empêche de couper des publicités après 48 heures parce que le coût par achat est élevé. (Et c’est une erreur que beaucoup font sur leurs pubs Facebook – couper trop vite, avant que l’algorithme ait eu le temps de trouver ses marques.)

La fréquence d’un test par semaine – c’est une cadence qui force aussi la discipline. Tu ne peux pas tout tester en même temps, mais tu accumules des learnings régulièrement. Au bout de deux mois, tu as huit tests documentés. Tu commences à avoir une vraie connaissance de ce qui marche sur ton compte spécifiquement, pas sur ‘Facebook en général’.

Et c’est peut-être ça, au fond, la vraie valeur de l’ab testing facebook ads : pas trouver une vérité universelle, mais construire une connaissance propre à ton compte, ton produit, ton audience. Ce que Danilo a testé sur la joaillerie ne s’applique pas forcément à ta gamme de sneakers. Mais sa méthode, si.

Questions fréquentes

Comment faire un ab testing facebook ads quand on a un petit budget ? +
Avec 20 à 30 euros par jour, tu atteins les 5 000 à 8 000 impressions nécessaires en une semaine environ. L'essentiel n'est pas le budget total, c'est de ne tester qu'une seule variable à la fois - un créatif différent, une offre différente, pas les deux en même temps. Une campagne de test dédiée avec une audience large et stable te permet de comparer des variantes sans polluer tes campagnes de production.
Combien de temps faut-il laisser tourner un ab testing facebook ads avant de décider ? +
Danilo Duchesnes recommande d'attendre au minimum 5 000 à 8 000 impressions avant de tirer une conclusion. Avec un budget quotidien de 20 à 30 euros, c'est généralement atteint en une semaine. Couper un test après 48 heures parce que le coût par résultat est élevé est une erreur classique - l'algorithme n'a pas encore eu le temps d'apprendre.
Qu'est-ce qu'on peut tester en ab testing facebook ads ? +
Les éléments testables sont nombreux : le format de la pub (vidéo, image, carrousel, collection), les créatifs eux-mêmes, les messages et accroches, les produits ou gammes de produits, les offres (réduction, livraison gratuite, garantie), les audiences, et la landing page de destination. Danilo recommande de commencer par le produit ou l'offre, puis le format créatif, avant de s'attaquer aux autres variables.
Quel indicateur utiliser pour mesurer un ab testing facebook ads ? +
L'indicateur le plus utilisé est le coût par résultat : coût par achat pour les campagnes de conversion e-commerce, coût par lead pour la génération de prospects. Si ta campagne génère du revenu attribuable, le ROAS est aussi un bon indicateur de comparaison entre les variantes.
Faut-il utiliser la fonctionnalité ab testing native de Facebook ? +
Cette fonctionnalité permet de tester des variantes sur des échantillons aléatoires d'une même audience, ce qui est statistiquement plus propre. Elle reste utile pour tester des messages différents sur des campagnes à structure identique. En revanche, Danilo ne recommande plus de l'utiliser pour tester des placements - une pratique qui était courante mais qui a perdu de son intérêt.
Quelle est la différence entre un test sur les audiences et un test sur les créatifs en ab testing facebook ads ? +
Le test d'audience consiste à comparer deux ciblages différents - par exemple une audience Lookalike contre une audience basée sur des centres d'intérêt - en gardant le même créatif. Le test de créatif fait l'inverse : même audience, créatifs différents. L'essentiel est de ne changer qu'une variable à la fois pour savoir précisément ce qui explique la différence de performance.

Épisodes similaires

  • Social Ads & Acquisition