Trois tests facebook ads – enfin, deux sur Facebook et un qui déborde sur Pinterest et Google – et des chiffres qui font réfléchir. Un ROAS de 5,8 là où les visuels statiques plafonnaient à 9. Un CPL à 5,16 € en allant à rebours de ce que recommande la plateforme. Et une campagne display Google qui dormait sur ses vraies créas pendant que l’algorithme faisait la fête avec des images fond blanc. Cassandre Baral, performance manager chez DHS Digital, a mené ces trois expériences en avril pour deux clients – un e-commerçant spécialisé dans les chaises design et ergonomiques, et un acteur de la vente de véhicules d’occasion. Ce qu’elle a trouvé, c’est pas révolutionnaire au sens start-up-qui-change-le-monde. Mais c’est exactement le genre d’infos qu’on cherche quand on gère des budgets réels et qu’on veut pas juste suivre les best practices de la documentation officielle.
Les tests facebook ads sur Pinterest : l’UGC qui marche là où personne ne l’attend
Au départ, c’est presque un accident de parcours. Le client livre des UGC début février – principalement prévus pour Facebook Ads. Sauf que sur Facebook, ils ne décollent pas. Résultat nul. Et là, au lieu de ranger le contenu dans un dossier et passer à autre chose, Cassandre se pose la question : et si on essayait sur Pinterest ?
Ce qui rend ce test intéressant, c’est le contexte de la plateforme. Pinterest, c’est historically un terrain de visuels soignés, de mises en situation produit propres, de lifestyle curated. L’UGC – avec ses imperfections, sa narration en caméra portée, son côté témoignage brut – ça n’y a pas vraiment sa place en théorie. Et pourtant.
La méthode : créer une épingle classique en format vidéo, en réutilisant les formats story Facebook (9:16) tels quels. Cassandre les répartit entre campagnes d’acquisition et de remarketing, en respectant le découpage que le client avait déjà fait. Côté acquisition, les UGC problème-solution – « j’en ai marre d’avoir mal au dos, depuis que j’utilise ce siège je me sens beaucoup mieux » – et côté remarketing, les formats plus orientés parcours d’achat et unboxing.
« L’UGC reste assez rare sur Pinterest, on le voit pas énormément, mais comme on avait ces formats story UGC, on s’est dit pourquoi pas les tester. »
Dit comme ça, c’est presque trivial. Mais c’est souvent les décisions les plus simples qui donnent les résultats les plus inattendus.
Les chiffres : ROAS de 5,8 pour les UGC, contre 9 sur les visuels statiques. 24 ventes, 4 778 € de chiffre d’affaires, CTR à 0,63 %, dépense de 825 €. Sur le papier, le ROAS est moins bon. Mais – et c’est là que le test devient vraiment intéressant – Pinterest a diffusé massivement les UGC, générant un volume de ventes et de chiffre d’affaires bien supérieur aux visuels classiques qui, eux, avaient un meilleur ratio mais moins de reach.
La conclusion que j’en tire : le ROAS isolé raconte une histoire incomplète. Si tu regardes uniquement ce ratio sans regarder le volume, tu coupes une campagne qui génère du revenu réel pour en garder une qui est plus « efficace » sur un périmètre plus petit. C’est une erreur classique – et franchement, la plupart des annonceurs la font.
Ce qui est intéressant aussi, c’est que les méthodologies de test créatif qu’on applique sur Facebook peuvent se transposer ailleurs, parfois avec des adaptations minimales. Le format 9:16 qui tourne déjà sur Meta ? Il marche sur Pinterest sans retouche. C’est du budget créa qui travaille deux fois.
Google Display : quand l’algorithme ignore tes meilleures créas
Même client, même mois, autre plateforme. La campagne display de remarketing tourne avec un flux produit (récupéré depuis le Google Merchant Center) et des visuels statiques fournis par l’équipe créa. Le problème : Google choisit. Et il choisit presque toujours le flux produit.
Résultat après deux semaines : ROAS à 1,10. Ce n’est pas juste mauvais, c’est catastrophique pour du remarketing sur un produit à valeur élevée. Les visuels statiques – ceux avec des arguments sur le mal de dos, des personnes en situation, des fonds colorés – sont quasi invisibles. L’algorithme leur préfère les images fond blanc auto-générées depuis le catalogue.
« Nos belles créas entre guillemets étaient complètement délaissées. L’algorithme diffusait principalement mon flux produit et très peu mes visuels classiques. »
La solution trouvée par Cassandre est d’une logique implacable : séparer les deux systèmes. D’un côté, la campagne d’origine avec uniquement le flux produit actif – c’est le remarketing dynamique. De l’autre, une nouvelle campagne sans flux, avec uniquement les visuels statiques – le remarketing statique. Budget divisé en deux, moitié-moitié au départ.
Les résultats après l’isolation :
- Remarketing dynamique (flux produit seul) : ROAS 1,10, dépense 123 €
- Remarketing statique (visuels créa seuls) : ROAS 5,78, CPA 25,54 €, dépense 184 €
Cinq fois plus de retour sur dépense publicitaire. Et le CTR ? Presque identique des deux côtés – 0,39 % contre 0,38 %. Ce qui confirme que le problème n’était pas l’attention générée, mais bien la façon dont le budget était alloué en interne dans la campagne mixte.
Ce que j’aurais envie de souligner – enfin, ce qu’on oublie souvent de dire – c’est que ce genre de dysfonctionnement est invisible si tu ne regardes que les métriques agrégées de la campagne. La campagne « tournait ». Elle dépensait. Elle génèrait des clics. Mais elle gaspillait l’essentiel du budget sur un format sous-performant, en laissant crever les créas qui auraient pu convertir.
Cassandre nuance quand même : le remarketing dynamique n’est pas à jeter à la poubelle. Il peut retrouver son utilité lors d’opérations commerciales – soldes, ventes privées, promotions flash. En période creuse sur ce compte précis, c’est la version statique qui tient la route. Ce n’est pas une règle universelle, c’est une observation sur un annonceur particulier à un moment particulier. (Et c’est souvent là que les conclusions de tests deviennent dangereuses quand on les généralise trop vite.)
Pour aller plus loin sur ce type d’analyse créa, les indicateurs de performance créative restent une base solide pour savoir quand couper et quand laisser tourner.
Lead gen : battre l’algorithme Facebook avec des paramétrages restreints
Troisième test. Autre client, autre logique. Un annonceur dans la vente de véhicules d’occasion. Objectif : faire baisser le CPL sans sacrifier le volume de leads. Le genre d’équation qui donne des maux de tête.
La démarche de Cassandre est méthodique – presque scientifique pour une plateforme qui aime tout obscurcir. Elle commence par une analyse de 6 mois de données historiques du compte, répartitions incluses : âge, sexe, jour de diffusion, plateforme, placement. Et pour ne pas se noyer dans l’interface Facebook (qui rend ce genre d’analyse sur plusieurs campagnes sur plusieurs mois franchement ingérable), elle exporte tout dans un Google Data Studio.
« L’idée c’était vraiment de gagner du temps et d’avoir une vue 360 directement dans le Google Data Studio. Pas facile en fait d’analyser directement sur la plateforme. »
Ce qu’elle trouve : Facebook est clairement plus efficace qu’Instagram sur ce compte. Le fil Instagram, Messenger et le placement Network – peu de résultats, beaucoup de budget gaspillé. La tranche d’âge qui convertit le mieux : les 25-44 ans. Le genre et les jours de diffusion, eux, ne montrent pas de différences significatives – pas la peine de restreindre ce qui n’a pas d’impact démontré.
La campagne de test qu’elle construit ensuite : une seule audience, un stack d’intérêts regroupés (les meilleures audiences du compte sur 6 mois), les 25-44 ans, les placements non-performants retirés, et les meilleures créas du compte. Budget limité – environ 490 € sur tout le mois d’avril – parce que ce n’est pas une campagne fil rouge, c’est un test avec budget bonus.
Et là, une chose importante à noter : elle laisse tourner un mois entier. Les deux premières semaines donnaient des résultats insuffisants. Si elle avait coupé au bout de 14 jours comme on est souvent tenté de le faire, elle aurait raté la convergence de l’algorithme. Ce compte, par nature, a des cycles de test plus longs que la moyenne.
Résultats sur avril : CPL à 5,16 €, 95 leads, 490 € dépensés. Et un CPM deux fois moins élevé que sur les campagnes fil rouge. (Ce qui explique mécaniquement le CPC réduit et le volume de leads plus élevé à budget équivalent.)
Sur les tests facebook ads habituels pour ce type de compte, des tests de paramétrage similaires menés en mars avaient déjà montré que les optimisations de structure ne sont pas mortes. Ce test d’avril le confirme d’une autre manière.
Et en remontant la chaîne de conversion – devis, rendez-vous avec inspecteur, mise en ligne du véhicule – les leads issus de cette campagne coûtaient 20 à 25 € de moins à convertir que ceux des campagnes habituelles. C’est là que le CPL bas devient vraiment une information pertinente : quand il se traduit aussi en meilleure qualité downstream.
Facebook recommande officiellement de laisser les placements automatiques et de ne pas restreindre. Cassandre l’assume : elle a pris un risque délibéré. « Je l’aurais peut-être pas fait sur du e-commerce. Mais en lead gen, avec un objectif CPL très agressif sur ce compte, c’était justifié. » C’est honnête. Et c’est utile – ça évite de transformer ce test en recette universelle.
Ce que ces trois tests facebook ads disent vraiment sur la méthode
Revenons en arrière une seconde. Trois tests, trois plateformes, deux clients. Ce qui les relie, c’est moins les conclusions individuelles que l’approche sous-jacente.
Premier point : ne pas abandonner un format parce qu’il échoue sur une plateforme. Les UGC ont planté sur Facebook – ils ont cartonné en volume sur Pinterest. Si l’équipe avait simplement archivé les fichiers après l’échec Meta, le client aurait perdu 4 778 € de chiffre d’affaires et 24 ventes. Pour un coût créa déjà amorti.
Deuxième point : les plateformes font des choix à ta place, et pas toujours dans ton intérêt. L’algorithme Google display a choisi le flux produit parce que c’est plus facile à servir, pas parce que c’est plus efficace pour le compte. Isoler les systèmes a révélé une réalité que la campagne mixte masquait complètement.
Troisième point : les données historiques sont sous-exploitées. Six mois d’historique de compte, c’est beaucoup d’informations sur ce qui marche et ce qui draine du budget sans retour. Sortir ces données dans un Data Studio pour avoir une vue par dimension (âge, placement, plateforme) – c’est pas sorcier techniquement, mais ça demande d’y consacrer du temps. Et clairement, la plupart des comptes ne le font pas.
Pour aller plus loin sur la question des erreurs courantes sur Facebook Ads que même les pros commettent, il y a de quoi alimenter la réflexion. Notamment sur la tendance à couper trop vite ou à faire confiance aveuglément aux choix de l’algorithme.
Ce qui me frappe aussi, c’est la question du budget de test. Cassandre n’a pas redirigé tout le budget client sur sa nouvelle campagne lead gen. Elle a utilisé un budget bonus, gardé les campagnes fil rouge actives, et validé le concept avant d’envisager un scaling. C’est basique – mais sur quand et comment scaler ses campagnes Facebook Ads, les critères de validation préalable sont souvent bâclés.
« Si je m’étais focalisé sur les deux premières semaines, j’aurais tout de suite arrêté. Donc en fait le test s’est fait sur tout avril. »
Voilà. C’est probablement le truc le plus important de tout l’épisode, et il arrive en passant, comme une évidence. Un test qui n’a pas assez de temps pour converger n’est pas un test – c’est une décision précipitée avec une interface publicitaire en décor.
Il reste une question ouverte : ces résultats, est-ce qu’ils tiennent sur d’autres comptes ? Sur d’autres secteurs ? Le retargeting statique qui écrase le dynamique en display Google – est-ce spécifique aux produits design à valeur élevée, ou est-ce qu’on verrait la même chose sur du textile ou de la beauté ? Et les UGC sur Pinterest – est-ce que le format chaise ergonomique se prête particulièrement bien à ce type de narration mal-de-dos, ou est-ce reproductible sur d’autres catégories ?








![[Hors-série] Débrief du Challenge Facebook Ads 2023 : Résultats et apprentissages (réussites ET échecs) 16 challenge facebook ads](http://podcast-marketing.fr/wp-content/uploads/2026/04/le-rendez-vous-e-commerce-hors-serie-debrief-du-challenge-facebook-ads-2023-resultats-et-apprentissages-reussites-et-eche-3.jpeg)


