Un audit meta ads sur un compte à 25 000 € de dépenses mensuelles. Tout semble propre. Le ROAS tient la route. L’annonceur est plutôt satisfait. Et puis Danilo Mura Duchesnes, fondateur de DHS Digital, creuse un peu – et découvre que 56 % des conversions sont attribuées à la vue. Autrement dit : la moitié des achats auraient probablement eu lieu même sans que personne ne voie une seule publicité. L’annonceur pensait scaler. En réalité, Meta tournait en rond sur les mêmes audiences chaudes depuis des mois.
Ce cas, Danilo le présente comme le fil conducteur de 100+ audits réalisés ces deux dernières années. Sept erreurs qui reviennent, systématiquement, peu importe la taille du compte, peu importe le secteur. Des erreurs évitables, pour la plupart. Ce qui rend la chose encore plus frustrante.
Voici ce qu’il a trouvé – et ce que ça change concrètement.
Le cimetière de campagnes : quand trop de contrôle tue la performance
Première erreur dans tout audit meta ads sérieux : la structure de compte qui ressemble, selon les mots de Danilo, à « un cimetière de campagnes ». Un compte avec 15 000 € de dépenses mensuelles, 23 audiences testées, 14 campagnes rien que sur 6 mois – lancées, coupées, relancées, recoupées. Pas de logique claire. Pas de signal stable envoyé à l’algorithme.
L’annonceur appelait ça du testing. Meta appelait ça du bruit.
« Avec Andromda, le testing des audiences est mort. L’algorithme n’a plus vraiment besoin qu’on lui dise qui cibler. Ce qu’il a besoin, c’est que vous apportiez régulièrement de la diversité au compte et que vous ayez une stratégie qui est claire et qui est le plus stable possible dans le temps. »
Dit comme ça, ça remet pas mal de pratiques en question.
Ce que l’algorithme Andromeda cherche, c’est de la stabilité. Pas de la segmentation par intérêts. Pas de lookalike dupliqué trois fois. Une structure résiliente, qui tient dans la durée. Danilo observe que les comptes qui performent le mieux ont peu d’évolution au niveau du nombre de campagnes dans le temps. En gros : une campagne Advantage+ principale avec les meilleures créas, une campagne de testing, et éventuellement une campagne de retargeting si c’est justifié. C’est tout.
Et chaque nouvelle audience testée, chaque campagne coupée au bout de trois jours, c’est du budget cramé ET des signaux contradictoires envoyés à l’algorithme. Le double coût. Pour en savoir plus sur comment s’adapter à Meta Andromeda, il y a des ressources solides qui circulent depuis quelques mois.
Le retargeting déguisé en acquisition – l’erreur que personne ne voit
37 % des achats qui proviennent de la clientèle existante et des audiences engagées. Pas d’exclusions en place dans les campagnes d’acquisition. Résultat : Meta allait chercher ses conversions faciles.
Danilo revient sur ce compte D2C à 1 million d’euros de chiffre d’affaires annuel qui constatait zéro impact incrémental de ses investissements Meta. Et pour cause – une bonne partie du budget servait à convertir des gens qui allaient acheter de toute façon (la marque était forte en organique, ce qui rendait le problème encore plus invisible).
« Meta cannibalisait les ventes naturelles et se donnait tout le crédit. La marque en question était assez forte en organique et donc c’était encore plus facile pour Meta d’aller chercher des conversions faciles. »
C’est exactement le problème. Et c’est difficile à détecter si on ne regarde que le ROAS global.
Le diagnostic est simple à faire : regarder la répartition 7 jours clics / 1 jour vue. Si plus de 30 % des conversions viennent de la vue, il y a un problème. L’étape suivante : vérifier les exclusions – visiteurs, ajouts au panier, fichiers clients – dans les campagnes d’acquisition. Et contrôler que le budget retargeting ne dépasse pas 10 à 15 % du total. S’il dépasse, retravailler les exclusions, voire couper la campagne de retargeting pour observer l’impact. D’ailleurs, Danilo avait sorti une vidéo là-dessus – sur pourquoi Meta et Google mentent sur vos résultats – qui va plus loin sur le sujet de l’attribution.
Un dernier point sur ce sujet : si vous n’avez pas de campagne de retargeting dédiée, vous n’allez pas forcément exclure les visiteurs et les ajouts au panier. Mais si vous en avez une, l’exclusion devient indispensable. Sinon vous payez deux fois pour les mêmes personnes.
audit meta ads : quand les budgets partent dans le mauvais sens
Quatre campagnes bien identifiées. Des exclusions en place. Une logique acquisition / retargeting propre. Sur le papier, c’est clean. Sauf que la campagne de scale ne reçoit que 6 % du budget total – pendant que les campagnes de testing en absorbent 91 %.
Voilà ce que Danilo a trouvé sur un compte réel. Et ce n’est pas le seul cas.
Sur un autre compte : 23 % en retargeting, plus de 10 % en rétention (non budgétisé consciemment – le client ne s’en rendait pas compte), soit 33 % du budget total sur des audiences chaudes. Et les mois avec les meilleurs CPA – 13,67 et 13,55 – avaient les budgets les plus bas. Le moment idéal pour scaler. Personne n’a appuyé sur le bouton.
« Sur Meta, les budgets dérivent naturellement vers ce qui convertit le mieux et ce qui convertit le mieux, c’est évidemment les prospects chauds, les clients et cetera. Et si en plus de ça, vous calibrez mal vos budgets au sein de vos campagnes, ben Facebook lui il est content, vous lui donnez un gros budget sur une campagne même si c’est une campagne de testing, lui il va le dépenser ce budget. »
Le principe à retenir – enfin, ce que j’aurais voulu qu’on me dise bien avant – c’est qu’une répartition budgétaire saine ressemble à ça : 70 à 80 % en scale (la campagne Advantage+ principale avec les top créas), 10 à 25 % en testing selon la maturité du compte, 5 à 10 % maximum en retargeting. Et cette répartition doit être suivie semaine après semaine, pas juste recalculée tous les trimestres quand les perfs s’effondrent.
Pour les mois chauds type Black Friday, la logique change : 70 à 80 % en scale, et on réduit agressivement le testing. Sur la stratégie Meta pour le Q4, il y a des benchmarks plus précis si vous préparez la période.
Cinq créas actives pour 230 € par jour – le problème de volume que personne ne calcule
230 € par jour sur la campagne d’acquisition principale. Cinq créas actives à l’instant T. Sur trois mois : 12 publicités diffusées au total, soit quatre par mois. Et un taux de réussite de 11 % – quatre créas gagnantes sur 36 testées en six mois.
Meta recommande entre 15 et 20 créas dans une campagne Advantage+. Ce n’est pas une lubie : c’est ce qui permet à l’algorithme de maximiser la distribution et de limiter la fatigue créative. Sur une campagne de scale, Danilo vise 30 à 50 % de winners – parce qu’on n’y met que des créas déjà validées en testing. 11 %, c’est clairement insuffisant.
La formule pour calculer le volume créatif nécessaire : budget testing divisé par le CPA kill (soit le CPA cible multiplié par 3). Exemple avec 8 000 € de budget testing et un CPA kill à 60 € : 133 créas par mois. Ça paraît énorme. Mais 60 à 70 % de ce nombre, ce sont des itérations et déclinaisons de créas gagnantes – pas des concepts entièrement nouveaux. Le volume net de vrais nouveaux concepts tourne autour de 40.
Bref. La règle simple à retenir : 10 à 15 créas minimum dans la campagne de scale, et un calcul méthodique du volume de testing. Sans ça, la fatigue créative s’installe – et les performances chutent sans qu’on comprenne vraiment pourquoi. Pour une méthode sur comment structurer le testing pour scaler, il y a des approches complémentaires à ce que Danilo décrit ici.
43 000 € partis en fumée dans des tests non concluants
100 000 € investis en trois mois. 43 000 € dilués dans des tests dont on connaissait déjà l’issue – des créas avec un CPA deux fois supérieur à la cible, qui continuaient de tourner faute de règle de désactivation. 43 % du budget en fumée.
Sur un autre compte : 58 % du budget Black Friday cramé dans des tests non concluants. Au moment où chaque euro devrait être sur les créas qui prouvent quelque chose.
« Faire du testing c’est bien mais faire du testing sans méthodologie, c’est comme miser au casino. »
La formule est brutale. Elle est juste.
Ce que Danilo observe systématiquement dans les campagnes de testing qui dérivent : des créas encore actives malgré deux à trois fois le CPA cible dépensé, pas de règles de désactivation claires, des audiences de retargeting mélangées dans le testing, aucune logique structurée (est-ce qu’on teste un angle ? un persona ? un format ?). Et parfois le plus absurde : le budget testing qui augmente de 64 % alors que le CTR, le ROAS et le CPA baissent depuis plusieurs semaines.
Trois actions concrètes pour éviter ça. D’abord, définir des règles de désactivation : une créa qui dépense deux à trois fois le CPA cible sans atteindre l’objectif, on la coupe – sauf si ses métriques de storytelling (CTR, taux de complétion, coût par ajout au panier) sont exceptionnelles. Ensuite, calibrer le budget testing selon la maturité du compte : 10 à 15 % pour un compte mature, 15 à 25 % pour un compte en croissance, jusqu’à 30 % en phase agressive de scale. Enfin, structurer les tests par priorité : d’abord les segments de marché, ensuite les personas, puis les angles pour un même persona. Tester le hook en premier alors qu’on n’a pas validé ses segments de marché, c’est construire sur du sable. La question sur comment automatiser la stratégie créa avec de l’IA peut aussi être utile une fois la méthodologie de base en place – pas avant.
Nomenclature créa et diversité : les deux angles morts qui coûtent le plus cher
Sixième erreur : aucune nomenclature standardisée. Des créas qui s’appellent « image concept XYZ », « créa V3 finale », « vidéo UGC Marianne » – sans logique commune. Résultat : impossible d’analyser la performance au niveau macro. Impossible de savoir quel format gagne, quel angle fonctionne, quel persona convertit.
La solution est basique, reconnaît Danilo (ce qui est rare dans le secteur – en général on embrouille les choses simples). Une nomenclature qui intègre au minimum : le producteur, le format (image/vidéo/carrousel), le sous-format (UGC, VSL, FGC, motion), le concept, l’angle, la variation, le persona, la landing page. Il existe des générateurs de nomenclature pour simplifier ça.
Septième erreur – et là on touche au vrai différenciateur. Les créas qui se ressemblent toutes. Même angle, même concept, même structure de vidéo, même créateur, repliqués à l’infini. Danilo peut le voir à l’oeil nu. Meta le voit encore mieux – et regroupe automatiquement les créas trop similaires, limitant leur diffusion.
« Quand vous pensez tester 15 créas par semaine parce que vous avez fait trois vidéos, trois statiques et vous avez fait plein de variations et que vous observez finalement que Meta va diffuser que 20 % sur les 15 que vous avez lancé et vous demandez pourquoi ? C’est simplement parce que l’algorithme regroupe automatiquement celles qui se ressemblent trop entre elles. »
Voilà. La variation de tagline, c’est une variation – pas un nouveau concept. Pour l’algorithme, c’est considéré comme du quasi-doublon.
La règle que Danilo applique : faire varier au moins deux dimensions sur quatre à chaque nouveau concept. Le format natif (UGC, VSL, carrousel, statique, motion). L’univers visuel (composition, niveau de polish, style graphique). L’angle narratif (problème/solution, bénéfice, preuve sociale, humour, transformation – et oui, trop d’annonceurs empilent des angles bas de tunnel sans aller chercher haut de tunnel). Le persona et le moment de vie – pas « femmes 25-45 ans » mais « jeune maman épuisée le matin » ou « femme en burnout qui cherche à reprendre le contrôle ». C’est là que la créa devient du ciblage. Sur ce sujet, la diversité créative comme levier de scale en 2026 va beaucoup plus loin avec des exemples de vraies et fausses diversités.
Ce que j’aurais envie d’ajouter – et Danilo ne le dit pas explicitement mais c’est entre les lignes de tout ce qu’il décrit – c’est que ces sept erreurs ne sont pas indépendantes. Une structure instable génère du retargeting déguisé. Un retargeting déguisé fausse la répartition budgétaire. Une répartition budgétaire à l’envers étouffe les créas qui ont du potentiel. Et quand les créas se ressemblent toutes, l’algorithme n’a plus rien d’intéressant à diffuser. C’est un système. Pas une liste de points à cocher.
Pour aller plus loin sur la structure de compte Meta Ads pour scaler, les fondamentaux décrits ici trouvent leur complément naturel dans une vision plus large du compte. Mais commencer par l’audit meta ads – vraiment le faire, pas juste lire les dashboards – reste le point d’entrée obligatoire.











