Introduction : L’A/B Testing, l’arme secrète pour des publicités Facebook rentables
Vous investissez des centaines, voire des milliers d’euros chaque mois dans vos publicités Facebook, mais vous avez cette sensation frustrante de naviguer à vue. Certaines campagnes fonctionnent à merveille, d’autres sont des échecs cuisants, sans que vous ne compreniez toujours pourquoi. Vous changez une image, modifiez un texte, et les résultats s’effondrent ou, par chance, explosent. Cette incertitude est le quotidien de nombreux entrepreneurs et marketeurs. Pourtant, il existe une méthode rigoureuse pour transformer cette loterie en une science prédictive : l’A/B testing. Comme je le dis souvent, la réussite en publicité ne relève pas de la magie, mais d’une succession d’hypothèses validées par la donnée. C’est précisément l’objet de notre discussion aujourd’hui, une question qui m’est fréquemment posée et à laquelle je vais répondre en détail : comment faire des tests A/B sur Facebook Ads ?
Loin d’être une simple option pour techniciens, l’A/B testing est le moteur de l’optimisation continue. C’est le processus qui vous permet de comprendre ce qui résonne réellement avec votre audience. Est-ce cette vidéo dynamique ou cette image épurée ? Cette accroche directe ou cette question qui pique la curiosité ? Cette offre promotionnelle ou la mise en avant de la livraison gratuite ? Sans une approche structurée, vous ne ferez que deviner. L’enjeu est colossal : chaque test réussi peut se traduire par une baisse significative de votre coût d’acquisition, une augmentation de votre retour sur investissement (ROAS) et, au final, une croissance plus saine et plus pérenne pour votre entreprise.
Dans cet article, nous allons décortiquer ensemble, pas à pas, la méthodologie complète pour mettre en place des tests A/B qui ont un réel impact. Nous verrons non seulement comment les configurer techniquement, mais surtout comment réfléchir stratégiquement : quoi tester en priorité, comment isoler les variables pour obtenir des données fiables, et comment interpréter les résultats pour prendre des décisions éclairées. Préparez-vous à passer du statut d’annonceur qui ‘espère’ à celui qui ‘sait’.
L’A/B Testing sur Facebook Ads : bien plus qu’une simple couleur de bouton
Quand on parle d’A/B testing, l’image qui vient souvent à l’esprit est celle, un peu cliché, du test de la couleur d’un bouton sur une page de destination. C’est l’exemple que je donne souvent pour illustrer le concept de base :
‘L’AB testing, ça consiste à comparer deux éléments, afin de vérifier laquelle des variantes est la plus performante. Pour vous donner un petit exemple très visuel, vous connaissez sûrement les tests où on va faire varier la couleur du bouton sur une landing page. Donc par exemple, on va faire un bouton vert et un bouton rouge et on va voir lequel des deux boutons est le plus cliqué.’
Si ce cas d’école est parfait pour la théorie, la réalité de l’A/B testing sur Facebook Ads est bien plus riche et stratégique.
Sur une plateforme aussi complexe et dynamique que celle de Meta, les variables qui influencent la performance sont nombreuses. Il ne s’agit pas seulement de détails cosmétiques, mais d’éléments fondamentaux qui touchent au cœur de votre stratégie marketing. Oubliez la couleur du bouton ‘J’aime’ ; nous allons parler de ce qui change vraiment la donne pour votre budget. Concrètement, les tests se concentrent principalement sur deux grands piliers. Le premier, historiquement très important, est celui des audiences. On cherche à savoir quelle cible est la plus réceptive à notre message : une audience ‘similaire’ (lookalike) basée sur nos clients existants ? Une audience définie par des centres d’intérêt précis ? Ou une audience très large (broad) pour laisser l’algorithme faire son travail ? Chaque option a son potentiel et seule la mise en concurrence permet de trancher.
Le second pilier, qui a pris une importance prépondérante ces dernières années, est celui des publicités elles-mêmes, ou ‘créatives’. C’est là que se joue une grande partie de la bataille pour l’attention. On ne teste plus seulement une image contre une autre. On teste des concepts entiers : un message axé sur la résolution d’un problème contre un autre axé sur l’atteinte d’un objectif. On teste des formats radicalement différents : une vidéo courte et percutante contre un carrousel détaillé ou une image statique de haute qualité. On teste des visuels, des accroches, des angles d’approche… En somme, on teste la manière dont on communique notre valeur. Aujourd’hui, avec la puissance des algorithmes de Facebook, une créative exceptionnelle peut surperformer sur une audience large, tandis qu’une créative médiocre échouera même sur l’audience la plus qualifiée. C’est pourquoi comprendre comment tester ces éléments est devenu non négociable.
Étape 1 : La Priorisation, clé de voûte d’un A/B Testing efficace
Avant de vous lancer tête baissée dans la création de dizaines de variantes, une pause stratégique s’impose. La plus grande erreur en A/B testing est de tester pour le plaisir de tester, sans vision claire. Le succès de votre démarche dépendra entièrement de votre capacité à prioriser. Comme je l’explique, la première étape est de savoir où l’on va :
‘On va d’abord définir les tests qu’on veut faire parce que si on sait pas ce qu’on veut tester, bah on ne pourra pas forcément faire de l’AB test efficace sur Facebook. Une fois qu’on a défini nos tests, on va voir lesquels ont potentiellement le plus d’impact sur nos résultats.’
Cette phase de réflexion est fondamentale et doit s’articuler autour de trois axes.
Définir une hypothèse claire pour chaque test
Un test A/B n’est pas une question lancée au hasard, c’est la vérification d’une hypothèse. Chaque test doit commencer par la phrase : ‘Je pense que [variable A] fonctionnera mieux que [variable B] parce que [justification]’. Par exemple : ‘Je pense qu’une vidéo témoignage client (A) générera un coût par achat plus bas qu’une vidéo produit studio (B) parce que la preuve sociale inspire davantage confiance à une audience froide’. Cette simple discipline vous force à réfléchir à la psychologie de votre client et transforme vos tests en un véritable processus d’apprentissage sur votre marché. Sans hypothèse, vous collectez des données ; avec une hypothèse, vous gagnez en intelligence marketing.
Identifier les tests à plus fort impact : la pyramide de l’optimisation
Toutes les variables n’ont pas le même poids. Changer la police de votre publicité aura un impact infiniment plus faible que de changer l’offre que vous proposez. Pour allouer intelligemment votre budget et votre temps, il faut visualiser une pyramide de l’impact. À la base, le plus puissant, se trouve l’Offre/Produit. C’est ce que vous vendez et comment vous le vendez. Juste au-dessus, vient le Concept Créatif (l’angle marketing, l’idée maîtresse de votre publicité). Ensuite, le Format (vidéo, image, carrousel). Puis le Copywriting (accroches, textes). Enfin, au sommet, les optimisations plus fines comme les audiences ou les placements. Commencez toujours par la base de la pyramide. Tester un nouveau bundle ou une garantie ‘satisfait ou remboursé’ aura des répercussions bien plus importantes que de tester deux accroches similaires.
Planifier sa feuille de route de tests
Une fois vos hypothèses formulées et vos priorités établies, organisez-les dans une feuille de route simple (un tableur Google Sheets suffit). Listez vos tests par ordre de priorité, définissez une période pour chaque test (par exemple, un test par semaine), et prévoyez une colonne pour les résultats et les apprentissages. Cette feuille de route devient votre journal de bord de l’optimisation. Elle vous évite de refaire les mêmes tests, vous permet de capitaliser sur les connaissances acquises et donne une vision claire à toute votre équipe. L’idée est de créer un cycle vertueux : Planifier > Tester > Analyser > Apprendre > Planifier le prochain test.
Étape 2 : La Méthodologie, ou l’art de ne tester qu’une variable à la fois
Une fois votre plan de bataille établi, il est temps de passer à l’exécution. C’est ici que la rigueur devient votre meilleure alliée. L’A/B testing, comme son nom l’indique, compare une variable A à une variable B. Le piège est de vouloir tout tester en même temps, ce qui rend toute conclusion impossible. Comme je le souligne dans le podcast, cette discipline est essentielle :
‘Faire de l’AB testing, c’est quelque chose de très scientifique. Donc il faut éviter de faire trop de tests en même temps… Faites plutôt un test à la fois et faites-en un par semaine.’
La rigueur scientifique : un test, une variable
Imaginez que vous testiez une nouvelle audience ET une nouvelle créative en même temps. Si les résultats sont bons, est-ce grâce à l’audience ou à la créative ? Impossible de le savoir. Vous n’avez rien appris et ne pouvez pas répliquer ce succès de manière fiable. Le principe d’or de l’A/B testing est d’isoler une seule et unique variable. Si vous testez deux vidéos, elles doivent être diffusées sur la même audience, avec le même texte, le même titre, le même budget et sur les mêmes placements. La seule chose qui change est la vidéo elle-même. C’est cette isolation qui garantit que la différence de performance observée est bien due à la variable que vous testez, et à rien d’autre. C’est une contrainte, mais c’est la seule voie vers des enseignements solides.
Mettre en place une campagne de test dédiée
La manière la plus propre et la plus efficace de mener ces tests, surtout pour les créatives, est de structurer votre compte publicitaire en conséquence. La méthode que nous préconisons est simple :
‘Nous ce qu’on fait, c’est qu’on a une campagne dédiée pour nos tests. Donc on a la campagne qui s’appelle campagne de tests.’
Voici comment la configurer :
1. Créez une nouvelle campagne avec un objectif de conversion (par exemple, Achats). Vous pouvez utiliser l’optimisation du budget de la campagne (CBO) ou un budget au niveau de l’ensemble de publicités (ABO).
2. Créez un seul ensemble de publicités (ad set) à l’intérieur. Pour l’audience, choisissez quelque chose de large et de stable. L’objectif n’est pas de tester l’audience ici, mais de donner un maximum de latitude à l’algorithme pour trouver les bonnes personnes pour chaque créative. Un ciblage ‘broad’ (large) ou une audience similaire très large (5-10%) sont d’excellentes options.
3. Placez toutes vos publicités à tester (vos variantes A, B, C…) dans cet unique ensemble de publicités. Ainsi, elles sont en concurrence directe dans les mêmes conditions, avec le même budget et la même audience. Facebook répartira naturellement le budget vers les publicités qui montrent les meilleurs signaux de performance initiaux, vous donnant une indication claire des gagnants.
La fonctionnalité d’A/B Test native de Facebook : pour quels usages ?
Facebook propose son propre outil d’A/B testing, souvent appelé ‘Split Test’. Il fonctionne légèrement différemment. Au lieu de mettre les pubs en concurrence au sein d’un même ad set, il va créer des campagnes ou des ad sets dupliqués et diviser l’audience en échantillons aléatoires et non superposés pour garantir un test pur. Je mentionne cette possibilité :
‘C’est une fonctionnalité qui vous permet en gros de faire un test sur une campagne mais sur des échantillons aléatoires d’une même audience.’
Cet outil est particulièrement utile pour tester des éléments qui ne peuvent pas être mis en concurrence dans un même ad set. Par exemple : tester une stratégie d’enchères contre une autre, un objectif d’optimisation (conversion vs. clics sur le lien), ou, comme je l’ai évoqué, des placements spécifiques. C’est aussi une méthode très propre pour tester deux landing pages différentes. Pour tester des créatives ou des messages, la méthode de la campagne de test dédiée est souvent plus simple et plus rapide à mettre en œuvre.
Étape 3 : Que tester ? Le catalogue des variables pour des campagnes explosives
Maintenant que la stratégie et la méthodologie sont claires, entrons dans le vif du sujet : quels sont les éléments concrets à mettre en concurrence ? Les possibilités sont quasi infinies, mais il faut se concentrer sur ce qui déplace véritablement l’aiguille de la performance. Comme je l’indique, l’attention doit se porter sur les éléments qui font le plus de différence aujourd’hui :
‘En sachant qu’aujourd’hui, c’est plutôt les créas qui font tout le job sur Facebook, je vais plutôt vous donner des exemples de tests pour les créas.’
Le duo gagnant : L’Offre et le Produit
C’est le test le plus fondamental, celui qui a le plus d’impact. Avant toute chose, assurez-vous de proposer ce qui intéresse le plus votre marché.
‘On a vraiment remarqué que ce qui est le plus puissant finalement, bah c’est ce que vous vendez. Donc le produit ou l’offre.’
- Tester les produits : Si vous avez un catalogue, ne présumez pas de ce que les nouveaux clients veulent voir. Créez des publicités dédiées pour différentes gammes : vos best-sellers, vos nouveautés, ou des catégories spécifiques (par exemple, sneakers vs. boots vs. derbys). L’objectif est d’identifier les produits qui sont les meilleurs ‘portes d’entrée’ pour votre marque.
- Tester les offres : Pour un même produit, la façon de le présenter peut tout changer. Testez différentes incitations : une réduction en pourcentage (-15%), une offre groupée (‘deux achetés, le troisième offert’), la livraison offerte, ou un cadeau ajouté au panier. Testez également la mise en avant d’éléments de réassurance forts, comme une longue période d’essai ou une garantie à vie.
La créative : le champ de bataille principal
C’est ici que vous pouvez laisser libre cours à votre créativité, de manière structurée. Les tests de créatives se décomposent en plusieurs sous-catégories :
- Le Format : C’est un test de base mais toujours pertinent.
‘Tester le format vidéo, image, carrousel, collection.’
Chaque format a ses forces. La vidéo est immersive, l’image est directe, le carrousel permet de détailler plusieurs produits ou bénéfices, et la collection offre une expérience d’achat intégrée. Vous devez savoir quel format votre audience préfère.
- Le Concept créatif et le Visuel : Au-delà du format, c’est l’idée qui compte. Testez des axes radicalement différents. Par exemple, une photo ‘lifestyle’ avec des mannequins contre une photo ‘focus produit’ sur fond neutre. Ou une vidéo générée par un utilisateur (UGC) contre une production léchée en studio. Pour les bijoux, je donne un exemple concret :
‘on a remarqué que quand on met en avant juste le produit et qu’il n’y a pas forcément une personne à côté ou qui le porte, ça fonctionne mieux’.
- Le Message (Copywriting) : Les mots ont un pouvoir immense. Testez en priorité l’accroche, les 2-3 premières lignes de votre publicité. C’est ce qui va déterminer si l’utilisateur s’arrête ou continue de scroller. Testez une question contre une affirmation forte, une statistique surprenante contre une approche directe. Testez également différents angles d’approche dans le corps du texte : mettez l’accent sur les caractéristiques techniques dans une version, et sur les bénéfices émotionnels dans une autre.
Les autres variables à ne pas négliger
Bien que les créatives soient reines, d’autres tests restent pertinents dans certains contextes :
- Les Audiences : Même à l’ère du ciblage large, il peut être judicieux de tester une audience basée sur les intérêts contre une audience similaire (lookalike). Cela vous permet de comprendre les poches de performance de votre marché.
- La Landing Page : La publicité n’est que la première étape. Le test peut continuer sur votre site. Testez l’envoi du trafic vers votre page d’accueil, une page collection, ou directement une page produit. Chaque destination a un impact sur le taux de conversion et le parcours client.
Étape 4 : Analyser les résultats et prendre des décisions data-driven
Lancer des tests est une chose, mais savoir les interpréter pour en tirer des actions concrètes en est une autre. Un test ne s’arrête pas lorsque la campagne est terminée, mais lorsque vous avez un apprentissage clair qui vous permettra d’améliorer vos futures actions. Cette dernière étape est cruciale pour boucler la boucle de l’optimisation.
Choisir le bon indicateur de performance (KPI)
Pour juger un test, il faut un critère unique et indiscutable. Vous devez le définir avant même de lancer le test. Dans 90% des cas, ce sera votre objectif de campagne.
‘L’indicateur de performance qui est le plus souvent utilisé, ben c’est le coût par résultat. Donc si vous faites des campagnes de conversion, ben vous allez voir si le coût par achat ou le coût par prospect il est plus ou moins élevé selon les tests que vous faisiez.’
Si vous vendez des produits avec des prix différents, le ROAS (Retour sur les Dépenses Publicitaires) sera encore plus pertinent. Concentrez-vous sur ce KPI principal pour désigner le vainqueur. D’autres métriques comme le CTR (taux de clics) ou le CPC (coût par clic) sont intéressantes pour comprendre le ‘pourquoi’ d’un résultat (par exemple, une pub a un meilleur CPA car elle génère des clics beaucoup moins chers), mais elles ne doivent pas être les juges finaux.
La patience et la significativité statistique
L’une des plus grandes erreurs est de juger un test trop rapidement. Après seulement 24 heures, les résultats peuvent être très volatiles. L’algorithme de Facebook a besoin de temps pour apprendre et stabiliser la diffusion. C’est pourquoi il faut respecter un certain volume de données avant de prendre une décision. Je donne un repère simple :
‘Je vous conseille également d’attendre au moins d’avoir 5 à 8 000 impressions avant de juger si le test est pertinent ou non. Donc si vous investissez généralement 20 ou 30 € par jour, les 8 000 impressions après une semaine, vous les aurez.’
L’idéal est d’attendre au moins 3 à 7 jours et de s’assurer que chaque variante a généré suffisamment de conversions pour que la comparaison ait un sens. Couper un test trop tôt, c’est risquer de jeter une publicité qui aurait pu devenir très performante.
Le processus de ‘scaling’ : que faire d’un test gagnant ?
Vous avez un gagnant clair ! Et maintenant ? L’objectif d’une campagne de test n’est pas de générer des ventes à grande échelle, mais d’identifier les meilleurs éléments. Une fois qu’une publicité a prouvé sa supériorité, sa place n’est plus dans la campagne de test. Vous devez la ‘scaler’, c’est-à-dire l’intégrer dans vos campagnes principales, celles qui reçoivent la majorité de votre budget. C’est en nourrissant vos campagnes de ‘production’ avec les gagnants de vos campagnes de ‘test’ que vous créez un système d’amélioration continue et que vous augmentez durablement la performance globale de votre compte publicitaire.
Conclusion : Devenez l’architecte de votre succès sur Facebook
Nous avons parcouru ensemble le chemin complet de l’A/B testing sur Facebook Ads, de la réflexion stratégique à l’analyse rigoureuse. Retenez ce processus en quatre étapes : Prioriser, Méthodiser, Tester, Analyser. C’est votre nouvelle routine pour ne plus jamais naviguer à l’aveugle. L’époque où l’on pouvait lancer une publicité et espérer que la chance soit de notre côté est révolue. Aujourd’hui, la performance se construit, se mesure et s’itère.
Le message le plus important que je souhaite vous transmettre est le suivant : commencez simple, mais commencez. Ne vous laissez pas paralyser par la multitude d’options. Comme nous l’avons vu, concentrez-vous sur les tests à plus fort impact :
‘Le plus important, c’est le produit que vous allez pouvoir tester, donc l’offre et également le format de la pub. Ça c’est vraiment important.’
Maîtrisez ces deux variables, et vous aurez déjà fait 80% du chemin. L’A/B testing n’est pas une tâche ponctuelle, c’est une culture d’entreprise. C’est l’état d’esprit qui consiste à toujours questionner ses certitudes et à laisser le client, via ses actions, nous dire ce qu’il préfère. Alors, quelle est la première hypothèse que vous allez tester cette semaine ? Lancez-vous, et que la donnée soit avec vous !
Foire aux questions (FAQ) sur les tests A/B Facebook Ads
Quelle est la première chose à tester sur Facebook Ads pour avoir un impact rapide ?
Pour obtenir des résultats significatifs rapidement, vous devez vous concentrer sur les éléments qui ont le plus d’influence sur la décision d’achat. Il ne s’agit pas d’un détail de design, mais du cœur de votre proposition. La priorité absolue est de tester votre offre ou votre produit. Validez que ce que vous vendez intéresse le marché avant même d’optimiser la manière dont vous le présentez. Une offre irrésistible ou un produit phare peuvent compenser une créative moyenne, mais l’inverse est rarement vrai.
‘Le premier [test qui a le plus d’impact], c’est sur le produit ou l’offre. On a vraiment remarqué que ce qui est le plus puissant finalement, bah c’est ce que vous vendez.’
Combien de temps faut-il laisser tourner un A/B test sur Facebook ?
La patience est essentielle pour obtenir des données fiables. Couper un test trop tôt est une erreur fréquente qui peut vous conduire à de mauvaises conclusions. Il faut laisser le temps à l’algorithme de Facebook de sortir de sa phase d’apprentissage et de stabiliser la diffusion. Une bonne règle de base est de viser une durée minimale de 3 à 7 jours et de s’assurer que chaque variante a atteint un volume de diffusion suffisant pour être statistiquement pertinente.
‘Je vous conseille également d’attendre au moins d’avoir 5 à 8 000 impressions avant de juger si le test est pertinent ou non. Donc si vous investissez généralement 20 ou 30 € par jour, les 8 000 impressions après une semaine, vous les aurez.’
Vaut-il mieux tester les audiences ou les créatives ?
Bien que les deux soient importants, l’évolution de l’algorithme de Facebook a clairement déplacé le centre de gravité vers la créative. Avec des outils comme les campagnes Advantage+, l’algorithme est de plus en plus performant pour trouver la bonne audience par lui-même, à condition de lui fournir une excellente publicité. Votre énergie sera donc mieux investie à tester différents messages, visuels et formats, car une créative percutante peut fonctionner sur une audience très large.
‘Aujourd’hui, c’est plutôt les créas qui font tout le job sur Facebook, je vais plutôt vous donner des exemples de tests pour les créas. Le premier test qu’on fait beaucoup, bah c’est le fait de tester les formats. […] Deuxième test, c’est tester la créa.’
Quels sont les formats de publicité les plus efficaces à tester ?
Il n’y a pas de format universellement ‘meilleur’ ; l’efficacité dépend de votre produit, de votre audience et de votre message. C’est précisément pourquoi il est crucial de les tester. Les principaux formats à mettre en concurrence sont l’image statique (directe et efficace), la vidéo (immersive et engageante), le carrousel (idéal pour présenter plusieurs produits ou caractéristiques) et la collection (pour une expérience de shopping mobile intégrée). Commencez par tester une image contre une vidéo, c’est souvent le test de format le plus révélateur.
‘Le premier test qu’on fait beaucoup, bah c’est le fait de tester les formats. Donc tester le format vidéo, image, carrousel, collection.’
Comment savoir si mon test A/B est réussi ?
Un test est réussi lorsqu’une variante surpasse l’autre de manière significative sur l’indicateur de performance clé (KPI) que vous avez défini au préalable. Pour une campagne de e-commerce, ce sera généralement le coût par achat (CPA) ou le retour sur les dépenses publicitaires (ROAS). Ne vous laissez pas distraire par des métriques secondaires comme le nombre de ‘J’aime’ ou le taux de clics (CTR), sauf si elles aident à expliquer le résultat final. Le succès se mesure en fonction de votre objectif business.
‘L’indicateur de performance qui est le plus plus souvent utilisé, ben c’est le coût par résultat. Donc si vous faites des campagnes de conversion, ben vous allez voir si le coût par achat ou le coût par prospect il est plus ou moins élevé. On peut également regarder le ROAS.’
Peut-on tester plusieurs choses en même temps dans une campagne Facebook ?
C’est une très mauvaise pratique qui invalide les résultats de vos tests. L’A/B testing repose sur un principe scientifique : isoler une seule variable pour être certain que la différence de performance est bien due à ce changement spécifique. Si vous modifiez à la fois l’image, le texte et l’audience, vous ne saurez jamais quel élément est responsable de l’amélioration ou de la dégradation des résultats. C’est une perte de temps et de budget.
‘Faire de l’AB testing, c’est quelque chose de très scientifique. Donc il faut éviter de faire trop de tests en même temps. Donc évitez par exemple de faire des tests d’audience, de publicités, d’offres, de créas et encore de landing page en même temps parce que vous n’allez pas vous en sortir.’
Quel budget minimum faut-il pour faire des tests A/B pertinents ?
Il n’y a pas de chiffre magique, mais le budget doit être suffisant pour que chaque variante de votre test puisse sortir de la phase d’apprentissage et générer assez de données (impressions, clics, et surtout conversions) pour prendre une décision éclairée. Un budget qui permet à chaque publicité de générer environ 50 conversions sur une semaine est un bon objectif. Pour commencer, un budget de 20 à 30 euros par jour peut suffire pour des tests simples, à condition d’avoir un coût par conversion relativement bas.
‘Si vous investissez généralement 20 ou 30 € par jour, les 8 000 impressions après une semaine, vous les aurez.’ (Ce qui implique que ce budget est un point de départ raisonnable pour commencer à collecter des données).
Faut-il utiliser l’outil d’A/B test natif de Facebook ou une campagne dédiée ?
Les deux méthodes sont valides mais servent des objectifs légèrement différents. Pour tester des créatives (images, vidéos, textes), la méthode la plus simple et la plus utilisée par les praticiens est de créer une campagne de test dédiée avec une audience large, et de placer toutes les pubs à tester dans le même ensemble de publicités. L’outil natif de Facebook (Split Test) est plus rigoureux car il divise l’audience, et il est particulièrement utile pour tester des éléments au niveau de la campagne ou de l’ad set, comme les stratégies d’enchères, les placements ou les audiences.
‘Une autre possibilité […] c’est d’utiliser la fonctionnalité d’AB testing de Facebook. Donc la c’est une fonctionnalité qui vous permet en gros de faire un test sur une campagne mais sur des échantillons aléatoires d’une même audience.’




