tests facebook ads

Facebook Ads : 4 tests pour bousculer le POWER5 (Partie 1) – Mon passage sur Social Selling

Épisode diffusé le 15 septembre 2022 par Danilo Duchesnes

Écouter l'épisode :

0:00 --:--
Vitesse

Faire des tests Facebook Ads qui contredisent les recommandations officielles de Meta, c’est un peu comme rouler à contresens sur l’autoroute – tout le monde te klaxonne, mais parfois tu arrives plus vite. C’est exactement ce que Danilo Duchesnes, fondateur de DHS Digital et spécialisé e-commerce (3 millions d’euros investis sur Facebook et Instagram en un an), a fait en collaboration avec l’équipe de J7 Media dans leur podcast Social Selling. Et les chiffres qu’il a ramenés méritent qu’on s’y attarde sérieusement.

Le contexte : le Power 5 de Meta, ces cinq pratiques que la plateforme martèle depuis des années – CBO, placements automatiques, publicités dynamiques, simplification du compte, correspondance avancée – reste une base solide. Personne ne dit le contraire. Mais depuis iOS 14, quelque chose a changé dans la façon dont les algorithmes se comportent, et plusieurs agences ont commencé à tester des structures qui s’écartent du chemin balisé. DHS en fait partie.

Deux tests, des vraies données, des résultats qui surprennent. C’est ce qu’on va décortiquer ici.

Quand le Power 5 ne suffit plus – le contexte qui pousse à tester

Danilo gère principalement des comptes e-commerce : prêt-à-porter, compléments alimentaires, décoration d’intérieur. Du classique. Et c’est justement parce que ces comptes sont classiques que les résultats des tests Facebook Ads qu’il a menés sont intéressants – ça ne se passe pas sur un compte ultra-niche avec une audience exotique.

La mécanique de base de DHS, c’est un funnel en trois campagnes : acquisition, remarketing, et retargeting bottom funnel avec catalogue dynamique. Rien de révolutionnaire. Sauf que sur certains comptes, cette structure standard commençait à plafonner. Et plutôt que de juste monter les budgets – ce qui, spoiler, ne règle rien quand le fond est bancal – ils ont décidé de tester.

Ce qui m’a frappé dans la conversation, c’est l’aveu de Danilo : il se rendait parfois pas compte que certaines choses qu’il testait étaient des insights vraiment intéressants à partager. C’est souvent comme ça que les meilleures pratiques émergent – pas dans des slides de conférence, mais dans des comptes réels avec des vraies contraintes budgétaires. Pour aller plus loin sur les structures d’acquisition, l’épisode sur les 6 leviers pour scaler vos campagnes Facebook Ads donne un bon complément de lecture.

Premier test : les look alike, jusqu’où aller en pourcentage ?

Le cas : un client prêt-à-porter, précommandes tous les trois mois, budget de 20 à 30 000 euros sur quinze jours. Intense. Peu d’historique sur les audiences similaires – les intérêts et le ciblage large avaient fonctionné avant, mais les look alike, pas vraiment testé à fond.

Danilo s’est inspiré d’Andrew Foxwell – agence média américaine, grosse production de tests et de contenus – et de son concept de « full LLA », une campagne dédiée à tester différentes sources ou pourcentages d’audiences similaires en parallèle. L’idée est simple sur le papier : tu isoles les variables, tu mesures.

La structure mise en place pour ces tests Facebook Ads sur le compte prêt-à-porter :

  • Une audience look alike 2-4% basée sur l’événement achat du pixel
  • Une audience 4-6%, même source
  • Une audience 6-10%

Budget : 200 euros par jour environ. En CBO – et c’est là que Danilo reconnaît lui-même l’erreur.

« J’ai fait une erreur, j’ai mis en CBO. J’aurais pas dû, j’aurais vraiment dû mettre en EBO et mettre vraiment le même budget pour chaque audience. Vous comprendrez pourquoi c’était une erreur. »

Dit comme ça, c’est une leçon de méthode que beaucoup apprennent à leurs dépens.

Résultat : Facebook a concentré la majorité des dépenses sur le 2-4%, avec un CPA à 94 euros. Correct, mais loin des 78 euros de la campagne d’acquisition standard sur ce même compte. L’audience 4-6% : 442 euros dépensés pour une seule conversion. Le 6-10% : 635 euros pour une conversion. L’algorithme a voté avec le budget – et il a choisi les audiences les plus proches de la source.

La campagne look alike globale affichait un CPA à 249 euros pour 6 conversions et 1453 euros de dépenses. Clairement pas le bon cheval sur ce compte.

Mais – et c’est là que c’est intéressant – ce résultat négatif confirme quelque chose qu’on sait intuitivement mais qu’on teste rarement formellement : les pourcentages élevés en look alike, c’est pour scaler quand les 1-3% sont épuisés, pas pour remplacer une campagne qui fonctionne. Antoine Damas le résume bien dans l’échange :

« Ces look alike là, t’as entièrement raison. Tu dois commencer avec la look alike qui théoriquement se rapproche le plus de ton point de data que tu donnes à Facebook, donc bien entendu une look à 1 %. Mais souvent c’est qu’à un certain point tu veux scaler ton compte. Donc tu vas aller chercher plus de volume et c’est là que tu t’envois chercher ta 3 %, ta 6 % puis ultimement ta 10 %. »

Ce que j’aurais aimé qu’on creuse davantage : est-ce que la qualité de la source de données change radicalement l’équation ? Parce que si l’événement achat est nourri par seulement quelques centaines de conversions, le look alike 2% ressemble déjà à une approximation. Pour approfondir la question des audiences, l’article sur la meilleure audience sur Facebook Ads explore justement quand le ciblage large peut surpasser les audiences construites.

La prochaine étape envisagée par Danilo : arrêter de tester les pourcentages – il sait que le 2-4% est le bon sur ce compte – et commencer à tester les sources. Fichier client, acheteurs avec panier supérieur à 200 euros, audiences d’interaction Instagram. Trois sources, même pourcentage, en EBO cette fois. C’est ça, une vraie progression de tests.

Les tests Facebook Ads sur les Stories : quand l’algorithme dépense mal

Deuxième test. Celui-là, Danilo le défend avec nettement plus d’enthousiasme – et les chiffres lui donnent raison.

La logique de départ : sur certains comptes prêt-à-porter, le placement Stories montrait des indicateurs prometteurs – bon CPM, taux de clic correct – mais Facebook, en placement automatique, n’y allouait que 20 à 30% du budget. L’algorithme sous-exploitait un placement qui semblait pourtant efficace.

La solution : isoler la Stories dans une campagne à part. Même audiences que la campagne d’acquisition standard, mêmes créas mais adaptées au format vertical. Et mesurer si cette campagne dédiée bat le placement automatique.

« La recommandation de Facebook, on la connaît, c’est d’utiliser les placements automatiques, de personnaliser la publicité selon le placement et de laisser son algorithme diffuser la publicité là où il y a le plus de chance d’avoir des conversions au coût le plus bas. Ça c’est le but. Mais on a parfois remarqué que le placement stories pouvait être très fonctionnel en terme de diffusion, en terme de coût par clic. »

Et donc. Les résultats sur le compte chaussures (hommes et femmes séparés, ce qui est une bonne pratique en soi) :

Campagne Stories femmes : CPA à 16 euros pour 18 000 euros de dépenses. Campagne fil d’actualité femmes : CPA à 23,70 euros pour 14 000 euros de dépenses. Différence : 8 euros par conversion, soit presque un tiers du CPA. Sur des volumes pareils, ça n’est pas anecdotique.

Côté hommes : 37 euros en Stories contre 48 euros en fil. Écart un peu moins spectaculaire, mais dans le même sens. Et les métriques media confirment la cohérence : CPM à 2,50 euros en Stories contre 3,60 euros en fil. CPC légèrement plus élevé en Stories (normal, on clique moins en story), mais CPA meilleur malgré ça.

Ce que ça dit, en gros : l’algorithme, quand on lui laisse les placements automatiques, n’est pas mauvais – mais il optimise sur des signaux court terme qui ne racontent pas toujours la même histoire que le CPA final. Séparer la Stories force le budget à aller là où il résiste naturellement à aller.

Sur un second compte – lingerie cette fois, avec des créas UGC et vidéos immersives spécifiquement conçues pour le format – le résultat est similaire : 15 dollars de CPA en Stories contre 22 dollars en fil, avec des CPM là encore inférieurs en Stories. La cohérence sur deux comptes différents, deux secteurs différents, c’est ce qui rend le test crédible. Pour ceux qui veulent aller plus loin sur la question des créas adaptées aux placements, l’article sur les meilleures pratiques créa Facebook Ads est une bonne ressource.

Pourquoi ils ont arrêté – et ce que ça révèle sur la gestion opérationnelle

Sur le compte chaussures, DHS a fini par abandonner la campagne Stories. Pas parce que ça ne fonctionnait pas. Parce que ça devenait ingérable.

Trois zones géographiques – France, zone euro hors France, UK. Trois campagnes de base. Si on ajoute une campagne Stories pour chaque zone : neuf campagnes. Un média buyer qui gère déjà dix à douze campagnes par compte n’a pas la bande passante pour monitorer correctement tout ça. Et un compte mal suivi, c’est un compte qui part en vrille dès que quelque chose change.

C’est une concession honnête que j’apprécie – enfin, ce que j’aurais voulu qu’on me dise plus tôt dans ma carrière, c’est que la meilleure stratégie du monde ne vaut rien si elle n’est pas applicable dans les conditions réelles d’une équipe. Trop de comptes que j’ai vus cramer du budget sur des structures trop complexes pour être pilotées correctement.

Pour les comptes avec moins de campagnes – notamment le compte compléments alimentaires mentionné – la campagne Stories reste active. Et elle joue un rôle précis : pas forcément la campagne la plus performante, mais une source de scaling complémentaire. Quand tu as épuisé les leviers classiques, la Stories devient une façon d’injecter du budget supplémentaire sans exploser le CPA de ta campagne principale. C’est aussi une des raisons pour lesquelles l’article sur quand et comment scaler vos campagnes Facebook Ads est pertinent ici – la Stories comme outil de scaling, c’est exactement ce dont il s’agit.

Ce que ces tests facebook ads changent vraiment dans la méthode

Le compte manager Facebook de l’un des clients de Danilo lui a demandé de revenir aux placements automatiques. Danilo a dit non. Et les chiffres lui ont donné raison.

C’est là que réside l’enjeu réel de ces tests Facebook Ads : pas de remettre en cause le Power 5 comme cadre de départ – ça reste une base pertinente – mais de comprendre que les recommandations de plateforme sont optimisées pour la masse, pas pour ton compte spécifique. Ton compte e-commerce de chaussures avec une audience majoritairement féminine et des créas visuelles fortes n’a pas le même profil de performance que la moyenne des comptes sur lesquels Meta a calibré ses recommandations.

Ce qui change dans la méthode, concrètement :

D’abord, documenter avant de tester. Danilo savait que les Stories dépensaient peu en placement automatique avant de lancer sa campagne dédiée. C’est le breakdown qui lui a donné le signal. Aujourd’hui on ne peut plus voir les conversions par placement, mais on peut encore voir les CPM et les pourcentages de dépenses – et ça suffit pour décider si le test vaut la peine.

Ensuite, tester proprement. L’erreur du CBO sur le test look alike, Danilo la reconnait clairement. Un test mal structuré donne des données inutilisables. EBO, budgets égaux, variables isolées – la méthode de base reste la méthode de base. Pour aller plus loin sur les protocoles de test créatif, l’article sur les 10 tests créa à mener sur Facebook Ads donne un cadre complémentaire utile.

Et enfin – peut-être le point le plus sous-estimé – vérifier le chevauchement d’audiences avant de lancer. Danilo et Antoine mentionnent en passant un cas où deux look alike (ajout au panier vs acheteurs) ne se chevauchaient qu’à 20%. Ce chiffre précis change tout : à 20%, tu peux les séparer. À 60%, tu les consolides. C’est une vérification qui prend dix minutes et évite des semaines de données polluées.

Le vrai apprentissage de ces deux tests, c’est peut-être ça : iOS 14 a changé les règles, et les comptes qui s’en sortent le mieux sont ceux qui ont arrêté de traiter les recommandations Meta comme des vérités absolues. Pas pour faire de la rébellion, mais parce que les données de leurs propres comptes leur disent autre chose. L’impact d’iOS 14 sur les pratiques est d’ailleurs documenté dans l’article sur les 5 changements opérés sur les campagnes Facebook Ads après iOS 14 – un contexte indispensable pour comprendre pourquoi ces tests ont émergé à ce moment précis.

La suite – les deux autres tests évoqués dans l’épisode, notamment les campagnes multigam – c’est pour la partie 2. En attendant, la question qui reste en suspens : sur ton compte à toi, est-ce que tu sais réellement ce que Facebook dépense en Stories en placement automatique ? Si tu n’as jamais regardé ce breakdown, c’est peut-être le premier test à faire.

Questions fréquentes

Comment faire des tests Facebook Ads sur les audiences look alike ? +
La méthode la plus propre : créer une campagne dédiée en EBO (budget au niveau de l'ad set) avec des budgets égaux pour chaque audience. Tester les pourcentages 1-3%, 4-6% et 6-10% sur une même source de données (idéalement l'événement achat du pixel). Le CBO est à éviter pour ce type de test car l'algorithme va concentrer le budget sur une seule audience et biaiser les résultats. Penser aussi à vérifier le chevauchement entre les audiences avant de lancer.
Vaut-il mieux utiliser les placements automatiques ou isoler les Stories sur Facebook Ads ? +
Les placements automatiques restent la recommandation de Meta et fonctionnent bien dans la majorité des cas. Mais sur des comptes e-commerce avec des créas visuellement fortes - prêt-à-porter, chaussures, lingerie - une campagne Stories dédiée peut battre le placement automatique sur le CPA. Dans les tests menés par DHS Digital, l'écart atteignait 8 euros de CPA en faveur des Stories sur un compte chaussures femmes (16 euros contre 23,70 euros). Le bon signal pour lancer ce test : regarder le pourcentage de dépenses alloué aux Stories en placement automatique. Si c'est 20-30% avec des CPM bas, ça vaut la peine d'isoler.
Quel pourcentage de look alike utiliser sur Facebook Ads ? +
Commencer par les pourcentages bas (1-3%) qui se rapprochent le plus de la source de données. Les 6-10% sont utiles pour scaler un compte quand les audiences proches sont épuisées, pas pour remplacer une campagne qui fonctionne déjà. Sur le compte prêt-à-porter testé par DHS, le 2-4% affichait un CPA à 94 euros quand le 6-10% dépassait 600 euros pour une seule conversion.
Les tests Facebook Ads qui contredisent le Power 5 de Meta sont-ils risqués ? +
Le risque est réel mais gérable si le test est bien structuré. L'idée n'est pas de remplacer le Power 5 mais de le compléter sur des comptes où les recommandations standards ne suffisent plus. Deux précautions : ne pas tester avec des budgets trop importants au départ, et toujours avoir une campagne de production stable en parallèle qui continue à tourner. Si le test ne donne rien, les données sont quand même utiles pour affiner la stratégie.
Comment savoir si une campagne Stories Facebook vaut la peine d'être lancée ? +
Regarder le breakdown par placement dans vos campagnes actuelles en placement automatique. Si les Stories représentent moins de 25% des dépenses mais montrent des CPM et CPC compétitifs, c'est un signal fort. Préparer des créas verticales dédiées (image et vidéo en format 9:16) et dupliquer exactement les mêmes audiences que la campagne d'acquisition standard. Prévoir une perte de 10 à 20% de l'audience totale car certains utilisateurs ne consomment pas les Stories.
Quelle est la différence entre CBO et EBO pour tester des audiences Facebook Ads ? +
En CBO (Campaign Budget Optimization), Facebook répartit le budget entre les audiences selon ses propres signaux - ce qui biaise un test car une audience va capter l'essentiel du budget. En EBO (Ad Set Budget Optimization), chaque audience a un budget fixe et indépendant. Pour comparer proprement des audiences entre elles dans le cadre de tests Facebook Ads, l'EBO est indispensable. Le CBO reprend sa place une fois qu'on a identifié les audiences gagnantes et qu'on veut laisser l'algorithme optimiser en production.

Épisodes similaires

  • Social Ads & Acquisition