Les tests créatifs Facebook Ads sont probablement le levier le plus sous-exploité des annonceurs francophones – et aussi le plus mal exécuté. Danilo Duchesnes, consultant chez DHS Digital et animateur du Rendez-Vous Marketing, l’a dit sans détour dans son dernier épisode solo : la créa, c’est le facteur numéro un de performance sur Facebook et Instagram. Pas le ciblage. Pas la structure de campagne. La créa.
Et pourtant, la majorité des comptes qu’il audite font la même erreur : ils balancent des nouvelles publicités dans une campagne active et espèrent que ça va se passer bien. Spoiler : ça ne se passe pas bien. Soit Facebook ignore les nouvelles pubs, soit ça perturbe toute la performance existante. Les deux scénarios sont mauvais.
Ce qu’il propose à la place – et c’est là que ça devient intéressant – c’est une méthodologie structurée, avec une campagne de test séparée, des variables isolées, et un process pour faire remonter les winners dans les campagnes principales. Dix tests précis, avec des exemples clients réels. Voilà ce qu’on va décortiquer ici.
Pourquoi la créa écrase tout le reste sur Facebook
Trois ans en arrière, on parlait encore de ciblage comme du Saint Graal. Les audiences lookalike 1%, les intérêts hyper-segmentés, les exclusions chirurgicales… Tout ça pour quoi ? Pour se retrouver avec des CPM à 30€ et des visuels génériques que personne ne regarde.
Danilo a passé des années à épisoder sur la technique – sa propre formulation. 90% de ses épisodes solo parlaient de paramétrage. Dans celui-ci, il assume le virage :
« On sait que le levier numéro 1 pour performer sur Facebook et Instagram Ads, c’est la créa. »
C’est exactement le problème. On a tous fait l’inverse pendant trop longtemps.
L’algorithme de Meta a changé. Aujourd’hui, une bonne créa sur une audience large bat presque toujours une créa médiocre sur une audience ultra-ciblée. Ce n’est pas une opinion, c’est ce que les données de centaines de comptes e-commerce montrent depuis 2021. Et ça soulève une question que beaucoup évitent : si la créa est le levier principal, est-ce qu’on lui consacre le budget de production et le temps de test qu’elle mérite ?
Rarement. Pour en savoir plus sur les compétences clés qui font vraiment la différence sur Facebook Ads, c’est un autre épisode qui éclaire bien le sujet.
Les tests créatifs facebook ads : les 10 variables à isoler
Voici le point où la plupart des articles te donnent une liste propre avec des bullets symétriques. Je vais essayer de faire autrement.
1. L’axe marketing – c’est le message, l’idée centrale derrière la pub. Danilo cite un exemple pour une app de révision du code de la route. Trois axes testés : la commodité (‘révisez dans le métro’), la difficulté comme preuve de valeur (‘c’est plus dur chez nous, mais c’est plus facile de l’avoir’), et la progression mesurable. Trois idées complètement différentes pour le même produit.
2. Le scroll stopper – les 3 premières secondes d’une vidéo, ou l’accroche visuelle d’une image. C’est l’élément qui fait lever le pouce. Pour un client qui vendait un siège ballon, deux versions :
« Une première scène où on voyait une personne assise sur un siège ballon, et un autre scroll stopper avec exactement le même texte, mais une scène où on voyait la personne assise sur une chaise et qui mimait le fait d’avoir des problèmes de dos. »
La chaise a gagné. Contre-intuitif – le produit n’est même pas visible au début – mais logique quand on y réfléchit : on active d’abord la douleur avant de proposer la solution.
3. Le format publicitaire – image fixe, vidéo, GIF, carrousel, collection. Même concept créatif, décliné dans différents habillages techniques. L’idée : ne pas scaler un visuel avant de savoir dans quel format il performe le mieux.
4. Le produit ou la gamme – pour une même promo, tester différents produits en vedette. Un client dans la nutrition sportive : créatine contre whey contre arômes. La créatine a dominé. Du coup, c’est elle qui a pris le budget de déclinaison.
5. Les éléments de proposition de valeur – pour des bijoux, tester ‘plaqué or’ contre ‘artisanal’. Dans les souvenirs de Danilo (il assume ne pas être sûr à 100%), c’est ‘plaqué or’ qui l’emportait. Ce que j’aime dans cet exemple, c’est que les deux accroches sont vraies – le produit est plaqué or ET artisanal – mais le marché répond différemment à chacune.
6. Les formats créatifs récurrents – UGC, unboxing, orientation produit (motion design multi-angles), bénéfice en action (vidéo courte sur un seul bénéfice), comparatif avec la concurrence sans la nommer, démonstration produit, testimonial vidéo, compilation d’avis. Huit formats distincts que DHS utilise en rotation pour ses clients, à raison de plus de 120 contenus créatifs par mois (c’est le chiffre qu’il cite – et franchement, c’est une cadence industrielle).
7. Les variations d’une même image – couleur, présence ou absence de texte, call to action ou pas. La règle d’or : un seul élément modifié à la fois.
8. Photos produit lifestyle vs focus produit – le produit dans un contexte de vie réel, ou le produit seul sur fond neutre. Pour des bijoux, la personne qui porte le bijou versus le bijou isolé. Les deux approches ont leurs partisans, et c’est justement pour ça qu’il faut tester.
9. Personnes vs produit seul – similaire au précédent mais plus radical. Est-ce que la présence d’un visage humain dans la pub change les performances ? Souvent oui. Mais pas toujours dans le sens attendu.
10. L’accroche texte – même visuel, texte différent. Question ouverte contre proposition de valeur directe. Désir exprimé contre problème énoncé.
Dix variables. Pas dix choses à tester en même temps – dix angles d’entrée pour des campagnes séquentielles.
La campagne de test séparée, ou comment arrêter de se saborder
Voilà l’erreur que Danilo décrit et qui est probablement la plus coûteuse :
« Un des premiers réflexes qu’on a, c’est simplement d’ajouter les publicités dans une campagne en cours. Ce qui arrive, c’est que soit Facebook va pas diffuser les nouvelles publicités – donc le test, ben il n’a pas vraiment lieu – soit les pubs sont diffusées et vous allez perturber toute la performance de votre campagne principale. »
Dit comme ça, ça a l’air simple. Et pourtant, 80% des comptes que j’ai vus faire du testing le font encore de cette façon.
La solution : une campagne de test dédiée, séparée de la campagne fil rouge. Elle tourne en parallèle, avec 10 à 20% du budget total. Si vous dépensez 200€ par jour, la campagne de test tourne avec 20 à 40€. Pas plus.
Dans cette campagne, chaque ensemble de publicités teste un seul élément créatif. Un seul. 2 à 4 publicités par ensemble max. Audience large – broad, lookalike 10%, intérêts avec plusieurs millions de personnes. Et ce détail sur les audiences larges est important : si une créa performe sur une audience large, elle fonctionnera sur une audience plus restreinte. L’inverse n’est pas vrai. Donc autant qualifier les créas sur le terrain le plus difficile d’abord.
Les winners remontent dans la campagne principale. Là, ils ont déjà fait leurs preuves – le risque de perturbation est minimal. C’est une logique de qualification, pas d’expérimentation sauvage.
Sur les erreurs classiques en phase de scaling, il y a d’ailleurs un épisode entier qui fait écho à cette méthodologie.
Nouveauté vs itération : deux logiques de test différentes
Ce que j’aurais voulu qu’on me dise – enfin, ce qu’on m’a dit mais que je n’ai compris qu’après avoir raté plusieurs tests – c’est que tous les tests créatifs ne se ressemblent pas.
Danilo distingue deux types. Les tests de nouveauté d’abord : on teste un axe créatif ou un format qui n’a jamais été essayé. Risque élevé, potentiel élevé. C’est là que les grands changements de performance arrivent.
Et les tests itératifs ensuite : on prend un format winner qui existe déjà et on fait varier un élément pour l’améliorer encore. Risque faible, gains incrémentaux. C’est ce qu’on fait quand on change la couleur dominante d’une image qui performe déjà bien, ou quand on teste deux scroll stoppers différents sur une vidéo dont on sait déjà que le fond marche.
La confusion entre les deux types est source de beaucoup de déceptions. On lance un test itératif en espérant un effet de nouveauté – et on est surpris quand le gain est de 8% au lieu de 40%. Ou inversement, on applique une logique d’itération fine à un concept qui devrait être remis en question de fond en comble.
Ça rejoint d’ailleurs ce que Antoine Gagné de J7 Media développait sur les tests de niveau expert : la sophistication du test dépend du niveau de maturité du compte.
Ce que les exemples clients révèlent vraiment
Les exemples que Danilo donne ne sont pas là pour impressionner. Ils illustrent quelque chose de plus fondamental : les résultats sont presque toujours contre-intuitifs.
La chaise qui bat le siège ballon dans une pub pour siège ballon. La créatine qui écrase la whey dans une campagne de nutrition sportive. Le ‘plaqué or’ qui surpasse ‘artisanal’ pour des bijoux qui sont, rappelons-le, artisanaux.
« Le simple fait d’avoir testé les différents produits et gammes de produits dans les publicités pour cette même promotion a permis de voir quels sont les plus performantes et donc mettre l’accent là-dessus quand on décline le visuel qui est le plus performant. »
Voilà. C’est exactement ça. Le test ne confirme pas tes intuitions – il les corrige.
Ce qui me frappe dans ces exemples, c’est la logique de capitalisation. Une fois qu’on sait que la créatine performe mieux que la whey, on ne se contente pas de mettre plus de budget dessus. On décline le visuel gagnant en plusieurs formats, on tourne de nouvelles variations, on combat la fatigue publicitaire avec des variantes du même concept. Le test n’est pas une fin – c’est un point de départ.
Sur les stratégies pour relancer des créas existantes, il y a d’ailleurs des cas concrets qui illustrent exactement cette logique de capitalisation.
Une limite réelle de cette approche, quand même : elle suppose une capacité de production créative soutenue. 120 contenus par mois chez DHS, c’est une infrastructure. Un annonceur qui produit 4-5 visuels par mois ne peut pas appliquer cette méthodologie à la même cadence. Le principe reste valide – campagne séparée, variable isolée, audience large – mais les cycles de test seront plus longs et les learnings plus lents.
Et la performance globale sur Facebook dépend aussi de variables que les tests créatifs ne capturent pas entièrement – saisonnalité, concurrence sur les enchères, qualité de la landing page. Les tests créatifs facebook ads sont le levier principal, pas le seul.
Bref. Le vrai travail commence quand tu sors la première créa du four et que tu résistes à l’envie de la mettre directement dans ta campagne principale.











