tester plusieurs produits facebook ads

Comment tester plusieurs produits sur la même cible avec Facebook ads ? | #AskDanilo E02

Épisode diffusé le 14 mai 2021 par Danilo Duchesnes

Écouter l'épisode :

0:00 --:--
Vitesse

La question que Julie a posée à Danilo Duchesnes est exactement celle que la plupart des annonceurs esquivent : comment tester plusieurs produits Facebook Ads quand la cible est identique pour tous ? Une campagne unique avec un carrousel, trois campagnes séparées, ou un AB test en bonne et due forme – trois chemins, trois logiques, trois niveaux de budget. Et une seule vraie réponse selon Danilo : ça dépend de ce que tu veux savoir.

Danilo Duchesnes, c’est le consultant Facebook Ads que les e-commerçants belges et français appellent quand leurs campagnes stagnent. Il anime depuis 2021 le format AskDanilo, une émission courte dans laquelle il répond à des questions concrètes d’annonceurs. (C’est le genre de format qui devrait exister bien plus souvent – du pratico-pratique, sans bla-bla.) Ce deuxième épisode dure à peine six minutes. Il contient pourtant une grille de lecture que pas mal de media buyers ignorent.

Trois méthodes. Des avantages réels, des désavantages assumés. Et un verdict clair sur celle qu’on croit être la plus simple – le carrousel – qui s’avère souvent la plus aveugle.

Le carrousel : la fausse bonne idée pour tester plusieurs produits Facebook Ads

Réflexe classique. Tu as trois produits qui ciblent la même audience, tu fais une pub carrousel, tu mets un produit par fiche, et tu laisses tourner. Ça paraît logique. C’est même ce que Julie avait proposé dans sa question.

Danilo pose le problème clairement :

« Tu pourras jamais vraiment savoir laquelle de ces fiches est la plus pertinente à moins que tu mesures vraiment les ventes sur le long terme et que tu vois que dans ta publicité carrousel, tu as mis tes trois produits et que c’est souvent le deuxième produit qui se vend le plus. »

C’est exactement le problème. Tu n’as aucun signal propre par produit – juste un agrégat flou.

Facebook propose bien une option pour réordonner automatiquement les fiches selon les performances – la fonctionnalité « montrer automatiquement les images les plus performantes ». Si les utilisateurs cliquent davantage sur la fiche 2, l’algorithme la fait remonter. Sur le papier, c’est malin. Dans les faits, tu ne sais toujours pas pourquoi cette fiche performe. Est-ce le produit ? Le visuel ? Le titre ? La position initiale dans le carrousel ?

Bref, le carrousel te donne une seule publicité, zéro test réel, et une lecture des données qui ressemble plus à de la divination qu’à de l’analyse. Danilo le dit sans détour : « c’est pas l’idéal ». Et là-dessus, difficile de le contredire.

Pour aller plus loin sur le choix du bon format publicitaire, la vidéo pour la publicité Facebook mérite qu’on s’y attarde – les formats ne sont pas interchangeables selon les objectifs.

Trois pubs dans un même ensemble : simple, agile, imparfait

Deuxième option. Une campagne, un ensemble de publicité, trois pubs – une par produit. Même format pour chacune (trois images ou trois vidéos, pas de mélange). Tu laisses Facebook distribuer le budget et tu regardes les chiffres.

Ce que ça donne concrètement : un taux de clic par pub, un coût par résultat par pub. Si le produit 2 génère deux fois plus de clics que les autres, tu as un signal. Tu coupes les pubs qui ne performent pas, tu testes autre chose à la place. Danilo apprécie la flexibilité de cette approche – c’est ce qu’il appelle une méthode « plus agile ».

« Tu vas pouvoir lancer plusieurs publicités et en fonction des résultats que tu vas obtenir, tu pourras te dire bah tiens la deuxième publicité qui met en avant le deuxième produit, ça marche pas tant que ça, donc je la coupe et j’en teste une autre. »

Dit comme ça, ça a l’air simple. Mais voilà ce que Danilo ne cache pas.

Facebook va identifier un ou deux « winners » parmi tes pubs et leur allouer la majorité du budget. Résultat : ta pub numéro 1 reçoit peut-être 70 % des impressions, les deux autres se partagent les miettes. Tu ne peux pas conclure que le produit 1 est meilleur – tu as juste prouvé que Facebook l’a préféré, ce qui n’est pas tout à fait la même chose. L’algorithme peut se tromper (ça arrive, même si personne n’aime l’admettre) et en décidant trop tôt, il t’empêche de voir le potentiel des autres produits.

Ce biais de distribution est bien documenté – et c’est un angle que l’impact de l’algorithme Facebook Ads traite en détail, notamment sur les effets combinés avec les changements d’iOS 14.

Reste que pour une première lecture, pour un budget limité, pour une décision rapide – cette méthode fait le travail. Ce n’est pas scientifique. C’est opérationnel.

L’AB test natif Facebook : quand tester plusieurs produits Facebook Ads devient rigoureux

Troisième méthode. La plus complexe. La seule qui soit vraiment scientifique selon Danilo.

Le principe : tu crées ta campagne avec une seule pub pour un produit. Puis tu utilises la fonctionnalité AB test directement dans le gestionnaire de publicités – l’option apparaît quand tu sélectionnes une campagne, dans les actions de duplication. Tu dupliques la campagne deux fois, tu changes une seule variable entre chaque version : la publicité elle-même. Facebook s’occupe du reste.

« Facebook va montrer chacune de tes publicités à des échantillons aléatoires dans ton audience pour éviter les chevauchements et que la personne ciblée voit les deux pubs. Donc c’est beaucoup plus scientifique et surtout, tu auras exactement le même budget qui sera dépensé sur chaque publicité. »

Voilà. C’est la différence fondamentale avec la méthode 2 : ici, le budget est distribué équitablement entre les versions, et l’audience est segmentée pour éviter qu’une même personne soit exposée aux deux pubs. Ce sont les deux conditions minimales pour parler de vrai test.

La contrepartie, c’est le budget. Danilo donne un chiffre concret : au moins 100 euros par variable pour obtenir environ 10 000 impressions par pub. (Ce qui veut dire 300 euros minimum pour tester trois produits – à garder en tête avant de lancer.)

Pour comprendre pourquoi le volume d’impressions est crucial dans la lecture des résultats, la stratégie Facebook Ads basée sur la data avec Simon Briquet-Loggia de Smiirl donne des clés intéressantes sur l’analyse fine des chiffres.

Ce qui m’agace un peu dans la façon dont cette méthode est souvent présentée, c’est qu’on la réserve aux gros budgets. 300 euros pour tester trois produits, c’est accessible pour la majorité des e-commerçants sérieux. Le vrai frein, c’est la complexité perçue de l’interface – pas le budget.

Quand l’algorithme prend le dessus – et pourquoi ça change tout

Le point qui revient dans les deux premières méthodes, c’est le comportement de l’algorithme. Facebook n’est pas neutre dans la distribution du budget. Il apprend, il optimise, il favorise. C’est sa raison d’être – et c’est aussi ce qui rend le testing difficile quand on ne le contrôle pas.

Dans la méthode 2 (plusieurs pubs dans un même ensemble), l’algorithme joue un rôle actif dans le résultat que tu observes. La pub gagnante n’est pas forcément celle qui aurait converti le mieux avec un budget identique aux autres – c’est celle que l’algorithme a décidé de pousser. Nuance importante. Et souvent négligée.

C’est d’ailleurs une limite que Danilo assume franchement – ce que j’apprécie. Il ne dit pas que la méthode 2 est mauvaise. Il dit qu’elle n’est « pas vraiment très scientifique ». C’est honnête. Et ça change la façon dont tu dois lire les résultats.

Pour le carrousel, le problème est différent. L’algorithme peut réordonner les fiches selon les clics, pas selon les conversions. Un clic sur une fiche ne veut pas dire un achat. Tu peux donc te retrouver à mettre en avant le produit qui génère le plus de curiosité – pas le plus de revenus. (Et c’est souvent là que ça coince quand on creuse les chiffres.)

Il faut dire aussi que la phase d’apprentissage de Facebook joue un rôle dans tout ça – le mythe de la phase d’apprentissage sur Facebook Ads démonte quelques idées reçues qui méritent d’être lues avant de lancer un test multi-produits.

Ce que le budget te permet vraiment de savoir

100 euros par variable. Ce chiffre de Danilo mérite qu’on s’y arrête.

10 000 impressions par pub pour un test statistiquement significatif – c’est la règle empirique qu’il pose. En dessous, les résultats sont bruités. Tu peux avoir une pub qui surperforme sur 2 000 impressions et qui s’effondre à 8 000. Le volume compte.

Ce que ça implique concrètement : si tu testes trois produits avec la méthode AB test, tu investis minimum 300 euros pour avoir une lecture fiable. Ce n’est pas une dépense – c’est un investissement en information. Tu achètes de la certitude plutôt que de l’approximation.

« Je te conseille peut-être de la faire si tu as du budget et si tu as vraiment envie de voir vraiment scientifiquement quel produit performe le mieux sur Facebook. Si tu as pas vraiment de préférence, je te recommande plutôt la méthode numéro 2. »

C’est rare d’entendre un consultant donner une recommandation aussi directement conditionnée au contexte. Pas de solution universelle – juste une logique de décision claire.

Et pour la méthode 2, sans budget AB test, Danilo recommande quand même de garder le même format publicitaire pour chaque produit. Trois images ou trois vidéos – pas un mix. Parce que si tu mélanges les formats, tu ne sais plus si c’est le produit ou le format qui fait la différence. C’est la base du testing, mais ça vaut le rappel.

Sur la question du bon objectif de campagne qui conditionne aussi la lecture des résultats, choisir le bon objectif Facebook Ads reste une lecture utile avant de structurer quoi que ce soit.

Quelle méthode choisir – enfin, comment y penser

Ce qu’il faut retenir – enfin, ce que j’aurais voulu qu’on me dise clairement la première fois que j’ai posé cette question à un consultant – c’est que les trois méthodes ne répondent pas à la même question.

Le carrousel répond à : « Comment mettre plusieurs produits dans une seule pub ? » Pas à : « Quel produit fonctionne le mieux ? »

Plusieurs pubs dans un même ensemble répond à : « Quel produit Facebook décide de pousser en premier ? » C’est utile comme signal de départ, mais ce n’est pas un test propre.

L’AB test natif répond à : « Quel produit convertit le mieux toutes choses égales par ailleurs ? » C’est la seule des trois qui donne une vraie réponse à la question de Julie.

Pour aller encore plus loin sur les fondamentaux de la création publicitaire qui font la différence en test, les pubs Facebook qui marchent avec Danilo Duchesnes – dans un autre épisode – pose les bases visuelles et textuelles qui conditionnent les résultats avant même le structure de test.

La vraie limite de tout ça – et Danilo ne le dit pas explicitement mais ça ressort en creux – c’est que même l’AB test ne teste qu’une variable à la fois. Si tes trois produits ont des prix différents, des visuels de qualité inégale, des pages produit plus ou moins optimisées… le test Facebook ne mesure qu’une partie du problème. Ce que tu vois dans le gestionnaire, c’est la performance de la pub. Pas la performance du produit en tant que tel. Nuance à garder en tête avant de couper un produit sur la base d’un test de 5 jours.

Mais bon – c’est déjà beaucoup mieux que de lancer un carrousel et de regarder les statistiques en espérant voir quelque chose d’intelligible.

Questions fréquentes

Comment tester plusieurs produits Facebook Ads sur la même audience ? +
Il existe trois approches principales. La première consiste à créer un carrousel avec une fiche par produit - simple mais peu informatif sur les performances individuelles. La deuxième met plusieurs publicités distinctes dans un même ensemble de publicité, ce qui permet de voir le taux de clic et le coût par résultat par produit, mais l'algorithme Facebook va naturellement favoriser une pub au détriment des autres. La troisième, la plus rigoureuse, utilise la fonctionnalité AB test native de Facebook qui distribue le budget équitablement entre les versions et évite les chevauchements d'audience.
Quel budget prévoir pour tester plusieurs produits Facebook Ads en AB test ? +
Danilo Duchesnes recommande au minimum 100 euros par variable testée pour atteindre environ 10 000 impressions par publicité - le seuil en dessous duquel les résultats manquent de fiabilité statistique. Pour trois produits, compte donc au minimum 300 euros.
Le carrousel Facebook permet-il vraiment de tester plusieurs produits Facebook Ads ? +
Non, pas vraiment. Un carrousel multi-produits donne une seule publicité globale sans signal propre par fiche. Même si Facebook peut réordonner les fiches selon les clics, tu ne sais pas si c'est le produit, le visuel ou le titre qui génère l'intérêt. Et les clics ne correspondent pas forcément aux conversions. C'est une façon d'exposer plusieurs produits en une pub - pas un test structuré.
Quelle est la différence entre mettre plusieurs pubs dans un ensemble et faire un AB test Facebook ? +
Dans un ensemble de publicité classique avec plusieurs pubs, Facebook identifie rapidement un ou deux 'winners' et leur alloue la majorité du budget. Les autres pubs sont sous-financées. Dans un AB test natif, Facebook distribue le budget de façon égale entre les variantes et segmente l'audience pour éviter les chevauchements. C'est cette équité de distribution qui rend l'AB test statistiquement fiable.
Comment accéder à la fonctionnalité AB test dans le gestionnaire Facebook Ads ? +
Dans le gestionnaire de publicités, sélectionne la campagne que tu veux tester. Dans les options d'action (là où tu peux dupliquer), tu dois voir une option 'Test AB'. Tu sélectionnes ta campagne, tu cliques sur cette option, et Facebook te propose de dupliquer la campagne en choisissant une variable à modifier. Danilo recommande de choisir 'variable personnalisée' pour ne changer que la publicité dans l'ensemble de publicité.
Faut-il utiliser le même format visuel pour tester plusieurs produits Facebook Ads ? +
Oui. Trois images ou trois vidéos - pas un mix. Si tu mélanges les formats, tu ne sais plus si c'est le produit ou le format qui explique la différence de performance. C'est une condition de base pour que le test soit lisible.

Épisodes similaires

  • Social Ads & Acquisition