La question que Julie a posée à Danilo Duchesnes est exactement celle que la plupart des annonceurs esquivent : comment tester plusieurs produits Facebook Ads quand la cible est identique pour tous ? Une campagne unique avec un carrousel, trois campagnes séparées, ou un AB test en bonne et due forme – trois chemins, trois logiques, trois niveaux de budget. Et une seule vraie réponse selon Danilo : ça dépend de ce que tu veux savoir.
Danilo Duchesnes, c’est le consultant Facebook Ads que les e-commerçants belges et français appellent quand leurs campagnes stagnent. Il anime depuis 2021 le format AskDanilo, une émission courte dans laquelle il répond à des questions concrètes d’annonceurs. (C’est le genre de format qui devrait exister bien plus souvent – du pratico-pratique, sans bla-bla.) Ce deuxième épisode dure à peine six minutes. Il contient pourtant une grille de lecture que pas mal de media buyers ignorent.
Trois méthodes. Des avantages réels, des désavantages assumés. Et un verdict clair sur celle qu’on croit être la plus simple – le carrousel – qui s’avère souvent la plus aveugle.
Le carrousel : la fausse bonne idée pour tester plusieurs produits Facebook Ads
Réflexe classique. Tu as trois produits qui ciblent la même audience, tu fais une pub carrousel, tu mets un produit par fiche, et tu laisses tourner. Ça paraît logique. C’est même ce que Julie avait proposé dans sa question.
Danilo pose le problème clairement :
« Tu pourras jamais vraiment savoir laquelle de ces fiches est la plus pertinente à moins que tu mesures vraiment les ventes sur le long terme et que tu vois que dans ta publicité carrousel, tu as mis tes trois produits et que c’est souvent le deuxième produit qui se vend le plus. »
C’est exactement le problème. Tu n’as aucun signal propre par produit – juste un agrégat flou.
Facebook propose bien une option pour réordonner automatiquement les fiches selon les performances – la fonctionnalité « montrer automatiquement les images les plus performantes ». Si les utilisateurs cliquent davantage sur la fiche 2, l’algorithme la fait remonter. Sur le papier, c’est malin. Dans les faits, tu ne sais toujours pas pourquoi cette fiche performe. Est-ce le produit ? Le visuel ? Le titre ? La position initiale dans le carrousel ?
Bref, le carrousel te donne une seule publicité, zéro test réel, et une lecture des données qui ressemble plus à de la divination qu’à de l’analyse. Danilo le dit sans détour : « c’est pas l’idéal ». Et là-dessus, difficile de le contredire.
Pour aller plus loin sur le choix du bon format publicitaire, la vidéo pour la publicité Facebook mérite qu’on s’y attarde – les formats ne sont pas interchangeables selon les objectifs.
Trois pubs dans un même ensemble : simple, agile, imparfait
Deuxième option. Une campagne, un ensemble de publicité, trois pubs – une par produit. Même format pour chacune (trois images ou trois vidéos, pas de mélange). Tu laisses Facebook distribuer le budget et tu regardes les chiffres.
Ce que ça donne concrètement : un taux de clic par pub, un coût par résultat par pub. Si le produit 2 génère deux fois plus de clics que les autres, tu as un signal. Tu coupes les pubs qui ne performent pas, tu testes autre chose à la place. Danilo apprécie la flexibilité de cette approche – c’est ce qu’il appelle une méthode « plus agile ».
« Tu vas pouvoir lancer plusieurs publicités et en fonction des résultats que tu vas obtenir, tu pourras te dire bah tiens la deuxième publicité qui met en avant le deuxième produit, ça marche pas tant que ça, donc je la coupe et j’en teste une autre. »
Dit comme ça, ça a l’air simple. Mais voilà ce que Danilo ne cache pas.
Facebook va identifier un ou deux « winners » parmi tes pubs et leur allouer la majorité du budget. Résultat : ta pub numéro 1 reçoit peut-être 70 % des impressions, les deux autres se partagent les miettes. Tu ne peux pas conclure que le produit 1 est meilleur – tu as juste prouvé que Facebook l’a préféré, ce qui n’est pas tout à fait la même chose. L’algorithme peut se tromper (ça arrive, même si personne n’aime l’admettre) et en décidant trop tôt, il t’empêche de voir le potentiel des autres produits.
Ce biais de distribution est bien documenté – et c’est un angle que l’impact de l’algorithme Facebook Ads traite en détail, notamment sur les effets combinés avec les changements d’iOS 14.
Reste que pour une première lecture, pour un budget limité, pour une décision rapide – cette méthode fait le travail. Ce n’est pas scientifique. C’est opérationnel.
L’AB test natif Facebook : quand tester plusieurs produits Facebook Ads devient rigoureux
Troisième méthode. La plus complexe. La seule qui soit vraiment scientifique selon Danilo.
Le principe : tu crées ta campagne avec une seule pub pour un produit. Puis tu utilises la fonctionnalité AB test directement dans le gestionnaire de publicités – l’option apparaît quand tu sélectionnes une campagne, dans les actions de duplication. Tu dupliques la campagne deux fois, tu changes une seule variable entre chaque version : la publicité elle-même. Facebook s’occupe du reste.
« Facebook va montrer chacune de tes publicités à des échantillons aléatoires dans ton audience pour éviter les chevauchements et que la personne ciblée voit les deux pubs. Donc c’est beaucoup plus scientifique et surtout, tu auras exactement le même budget qui sera dépensé sur chaque publicité. »
Voilà. C’est la différence fondamentale avec la méthode 2 : ici, le budget est distribué équitablement entre les versions, et l’audience est segmentée pour éviter qu’une même personne soit exposée aux deux pubs. Ce sont les deux conditions minimales pour parler de vrai test.
La contrepartie, c’est le budget. Danilo donne un chiffre concret : au moins 100 euros par variable pour obtenir environ 10 000 impressions par pub. (Ce qui veut dire 300 euros minimum pour tester trois produits – à garder en tête avant de lancer.)
Pour comprendre pourquoi le volume d’impressions est crucial dans la lecture des résultats, la stratégie Facebook Ads basée sur la data avec Simon Briquet-Loggia de Smiirl donne des clés intéressantes sur l’analyse fine des chiffres.
Ce qui m’agace un peu dans la façon dont cette méthode est souvent présentée, c’est qu’on la réserve aux gros budgets. 300 euros pour tester trois produits, c’est accessible pour la majorité des e-commerçants sérieux. Le vrai frein, c’est la complexité perçue de l’interface – pas le budget.
Quand l’algorithme prend le dessus – et pourquoi ça change tout
Le point qui revient dans les deux premières méthodes, c’est le comportement de l’algorithme. Facebook n’est pas neutre dans la distribution du budget. Il apprend, il optimise, il favorise. C’est sa raison d’être – et c’est aussi ce qui rend le testing difficile quand on ne le contrôle pas.
Dans la méthode 2 (plusieurs pubs dans un même ensemble), l’algorithme joue un rôle actif dans le résultat que tu observes. La pub gagnante n’est pas forcément celle qui aurait converti le mieux avec un budget identique aux autres – c’est celle que l’algorithme a décidé de pousser. Nuance importante. Et souvent négligée.
C’est d’ailleurs une limite que Danilo assume franchement – ce que j’apprécie. Il ne dit pas que la méthode 2 est mauvaise. Il dit qu’elle n’est « pas vraiment très scientifique ». C’est honnête. Et ça change la façon dont tu dois lire les résultats.
Pour le carrousel, le problème est différent. L’algorithme peut réordonner les fiches selon les clics, pas selon les conversions. Un clic sur une fiche ne veut pas dire un achat. Tu peux donc te retrouver à mettre en avant le produit qui génère le plus de curiosité – pas le plus de revenus. (Et c’est souvent là que ça coince quand on creuse les chiffres.)
Il faut dire aussi que la phase d’apprentissage de Facebook joue un rôle dans tout ça – le mythe de la phase d’apprentissage sur Facebook Ads démonte quelques idées reçues qui méritent d’être lues avant de lancer un test multi-produits.
Ce que le budget te permet vraiment de savoir
100 euros par variable. Ce chiffre de Danilo mérite qu’on s’y arrête.
10 000 impressions par pub pour un test statistiquement significatif – c’est la règle empirique qu’il pose. En dessous, les résultats sont bruités. Tu peux avoir une pub qui surperforme sur 2 000 impressions et qui s’effondre à 8 000. Le volume compte.
Ce que ça implique concrètement : si tu testes trois produits avec la méthode AB test, tu investis minimum 300 euros pour avoir une lecture fiable. Ce n’est pas une dépense – c’est un investissement en information. Tu achètes de la certitude plutôt que de l’approximation.
« Je te conseille peut-être de la faire si tu as du budget et si tu as vraiment envie de voir vraiment scientifiquement quel produit performe le mieux sur Facebook. Si tu as pas vraiment de préférence, je te recommande plutôt la méthode numéro 2. »
C’est rare d’entendre un consultant donner une recommandation aussi directement conditionnée au contexte. Pas de solution universelle – juste une logique de décision claire.
Et pour la méthode 2, sans budget AB test, Danilo recommande quand même de garder le même format publicitaire pour chaque produit. Trois images ou trois vidéos – pas un mix. Parce que si tu mélanges les formats, tu ne sais plus si c’est le produit ou le format qui fait la différence. C’est la base du testing, mais ça vaut le rappel.
Sur la question du bon objectif de campagne qui conditionne aussi la lecture des résultats, choisir le bon objectif Facebook Ads reste une lecture utile avant de structurer quoi que ce soit.
Quelle méthode choisir – enfin, comment y penser
Ce qu’il faut retenir – enfin, ce que j’aurais voulu qu’on me dise clairement la première fois que j’ai posé cette question à un consultant – c’est que les trois méthodes ne répondent pas à la même question.
Le carrousel répond à : « Comment mettre plusieurs produits dans une seule pub ? » Pas à : « Quel produit fonctionne le mieux ? »
Plusieurs pubs dans un même ensemble répond à : « Quel produit Facebook décide de pousser en premier ? » C’est utile comme signal de départ, mais ce n’est pas un test propre.
L’AB test natif répond à : « Quel produit convertit le mieux toutes choses égales par ailleurs ? » C’est la seule des trois qui donne une vraie réponse à la question de Julie.
Pour aller encore plus loin sur les fondamentaux de la création publicitaire qui font la différence en test, les pubs Facebook qui marchent avec Danilo Duchesnes – dans un autre épisode – pose les bases visuelles et textuelles qui conditionnent les résultats avant même le structure de test.
La vraie limite de tout ça – et Danilo ne le dit pas explicitement mais ça ressort en creux – c’est que même l’AB test ne teste qu’une variable à la fois. Si tes trois produits ont des prix différents, des visuels de qualité inégale, des pages produit plus ou moins optimisées… le test Facebook ne mesure qu’une partie du problème. Ce que tu vois dans le gestionnaire, c’est la performance de la pub. Pas la performance du produit en tant que tel. Nuance à garder en tête avant de couper un produit sur la base d’un test de 5 jours.
Mais bon – c’est déjà beaucoup mieux que de lancer un carrousel et de regarder les statistiques en espérant voir quelque chose d’intelligible.






![[REDIFF] #68 - Produire des créas UGCs performantes pour vos campagnes social ads (+ les meilleurs types d'UGC pour Facebook et TikTok Ads) avec Julien de Ménonville, co-fondateur @Kick Ads 12 ugc pour facebook ads](http://podcast-marketing.fr/wp-content/uploads/2026/04/le-rendez-vous-e-commerce-rediff-68-produire-des-creas-ugcs-performantes-pour-vos-campagnes-social-ads-les-meilleurs-type-3.jpeg)




