L’algorithme Andromeda Meta Ads a tout bouleversé – et la plupart des annonceurs ont continué à faire comme avant. Changer la tagline, swapper un hook, tester trois versions du même visuel avec des couleurs de fond différentes. Ce qui marchait il y a encore quelques mois. Ce que Danilo Mura Duchesnes, fondateur de l’agence DHS Digital, et Elisabetta Speranza, leur Lead Creative Strategist, ont décortiqué dans un épisode entier du podcast Le Rendez-vous Marketing – en répondant aux huit questions que leur audience leur posait le plus. Pas de la théorie. Du terrain.
Ce qui m’a frappé en écoutant cet épisode, c’est que la moitié des questions posées pointaient vers le même problème de fond : on a construit des process de testing ultra-rigoureux – un élément à la fois, isolation maximale des variables – et l’algorithme Andromeda Meta Ads est en train de rendre cette méthode obsolète. Ou en tout cas, beaucoup moins fiable.
Du coup, on refait quoi ?
Ce que l’algorithme andromeda meta ads déteste vraiment
La notion clé qui ressort de l’épisode, c’est la creative similarity. L’algorithme Andromeda Meta Ads analyse désormais la similarité entre tes créas. Trop similaires ? Signaux négatifs. Budget qui ne dépense pas. Performance qui s’effondre.
Elisabetta Speranza l’a mis très clairement :
« On met de côté le A/B testing comme on faisait avant avec les statiques où on change juste le message pour trouver le meilleur angle, le meilleur persona. Cette mise à jour va regarder la creative similarity. Et donc si des créas sont trop similaires, ça va donner des signaux négatifs à l’algorithme et donc perdre en performance. »
C’est exactement le problème. Des années à affiner des process de testing propres, et l’algo change les règles du jeu.
Concrètement, qu’est-ce qui compte comme une vraie variante aux yeux de Meta ? L’équipe a fait le travail de creuser. Sur les statiques : changer l’image de fond, changer le concept visuel (passer d’un format post-it à une note iPhone par exemple). Sur les vidéos : changer de créateur en gardant le même script reste discutable (Elisabetta l’a testé chez une cliente, ça a bien fonctionné – mais c’est pas confirmé officiellement). Changer le contexte – tourner à l’extérieur plutôt qu’à l’intérieur. Changer le thème, au sens émotionnel du terme : une vidéo facecam qu’on retravaille avec une tonalité humoristique plutôt que testimoniale.
Et puis il y a les micro-changements qui, eux, ne trompent pas l’algo. Un test concret cité dans l’épisode : une vidéo de sauce piquante avec juste le texte du POV modifié. Même vidéo de fond. Résultat ? La créa ne dépense pas. Meta la reconnaît comme une variante proche. En revanche, refaire le hook de A à Z – nouvelle vidéo, nouveau texte, nouvelle mise en scène – là ça dépense. La frontière est là. Elle est fine. Et on n’a pas encore de documentation officielle Meta qui la définit proprement (ce qui, honnêtement, n’est pas une surprise).
Pour aller plus loin sur les changements concrets qu’Andromeda impose aux stratégies créa, cet article sur les 7 actions face à Andromeda rentre dans les détails.
Campagne de test ou campagne de scale : le faux débat
Deuxième grande question de l’épisode, et celle qui divise le plus les annonceurs : est-ce qu’on teste d’abord dans une campagne dédiée avant de pousser en scale, ou est-ce qu’on met tout directement dans l’Advantage+ et on laisse l’algo décider ?
Réponse honnête : ça dépend du budget. Et c’est pas une esquive.
Danilo a partagé quelque chose d’intéressant – il a repris en direct la gestion de deux comptes pour rester dans le réel et pas juste commenter ce que ses équipes observent. Sur l’un des comptes, il a tenté l’expérience de mettre les mêmes créas en parallèle dans la campagne de scale ET dans une campagne de test. Résultat ?
« Ma campagne de scale, elle était vraiment en train de dépenser sur deux ou trois créas, notamment une créa en particulier qui dépensait tout le temps. Et mes nouvelles créas, elles étaient pas diffusées. Sur au moins 10 tests, 10 adsets différents, j’en avais vraiment aucun qui avait fait mieux ou qui s’est rapproché de la performance de ma top créa dans la campagne de scale. »
Dit comme ça, ça remet en question l’intérêt même d’une campagne de test. Mais la conclusion n’est pas de l’abandonner.
En dessous de 2 000 € par mois de budget ? Mets tout dans une AC+, laisse l’algo faire le tri. Avec un CPA cible classique entre 15 et 20 €, c’est la configuration la plus raisonnable. Au-dessus de ce seuil – et d’autant plus quand les budgets dépassent 3 000 € par mois – une stratégie de test structurée garde de la valeur. La règle interne chez DHS : 10 achats au CPA cible = créa gagnante, on l’intègre dans la campagne de scale. C’est la théorie. Dans la pratique, une créa peut ne pas dépenser pendant des semaines dans l’AC+ et commencer à tourner d’un coup. Et parfois, une créa qui performe en test ne performe pas en scale. Dans ce cas ? Scale ta campagne de test. Oui, ça existe.
Pour avoir une vue plus large sur comment structurer un compte Meta Ads pour scale en 2025, c’est un complément utile à cette question.
Combien de créas actives – et comment les lancer
Troisième enjeu pratique soulevé dans l’épisode : combien de créas on met dans une campagne en même temps, et est-ce qu’on les lance par vagues ou d’un coup ?
Le calcul théorique avancé par Elisabetta est simple : budget divisé par CPA cible = nombre de créas à tester. Si tu as 1 000 € par jour et un CPA cible à 25 €, tu peux en théorie tester 40 créas. Meta dit qu’on peut aller jusqu’à 50, voire plus. Mais.
« Si tu as un tout petit budget, faut pas non plus mettre 50 créas dans une AC+. Il faut quand même leur laisser la chance de diffuser. »
C’est là que la formule s’arrête et que le bon sens reprend. À 20 € par jour, mettre 50 créas ne sert à rien – aucune n’aura assez de data pour qu’on puisse tirer quoi que ce soit. Et les règles d’avant – pas plus de quatre actifs pour ne pas diluer le budget – sont en train d’être absorbées par l’algorithme Andromeda Meta Ads lui-même, qui fait ces arbitrages à la place des media buyers. Ce qui change quelque chose de fondamental dans la façon de raisonner.
Sur les vagues de lancement : même logique. Budget confortable ? Lance tout en même temps dans l’AC+. Budget serré ? Échelonne pour donner à chaque créa une chance réelle de s’exprimer. Ce n’est pas une règle universelle. C’est du cas par cas.
La question du volume de créas rejoint directement celle des stratégies de déclinaison créa – et comment certaines équipes ont réussi à faire +65% d’achats en travaillant justement ce levier.
Le ratio nouvelles créas / déclinaisons : ce que l’algorithme andromeda meta ads change ici aussi
Avant Andromeda, la sagesse commune était claire : on privilégie les déclinaisons d’angles gagnants plutôt que de repartir de zéro à chaque fois. Moins risqué, plus rapide, plus scalable. L’algorithme Andromeda Meta Ads remet ce calcul en question.
Pourquoi ? Parce que le volume de créas a désormais une importance en soi dans la façon dont l’algo distribue le budget et identifie des winners potentiels. Plus tu as de créas réellement différentes, plus tu lui donnes matière à travailler.
La position d’Elisabetta Speranza, et Danilo s’aligne dessus : on passe à du 50/50. Moitié nouvelles créas, moitié déclinaisons – mais des déclinaisons qui respectent les critères de variété (format, concept, créateur, persona), pas des itérations mineures. Et là il faut être précis sur la terminologie, parce que dans l’épisode ils font une distinction importante :
- Une déclinaison, c’est décliner le format, le concept, le créateur, le persona – sur des axes et angles gagnants.
Une itération, c’est changer le hook, retravailler le CTA, modifier un élément dans la structure existante. C’était la mécanique d’optimisation classique. Aujourd’hui, une itération trop mineure risque d’être lue par l’algo comme une variante proche – et donc de ne pas dépenser. Mais une bonne itération, celle qui change plusieurs éléments simultanément, peut toujours valoir le coup sur les top créas.
Ce qui change aussi avec cette logique de volume, c’est le coût de production. Et ça, personne ne l’évite.
L’IA pour la créa : utile, mais pas magique
La question des outils IA – Sora, Nano Banana, Midjourney – est arrivée naturellement dans la conversation. Un annonceur dans les applis de rencontre avait expliqué à Danilo comment il utilisait Sora pour générer des plans de vidéo réalistes qu’il n’avait pas filmés.
La réponse d’Elisabetta est plus nuancée qu’un simple « oui ça marche » ou « non ça grille » :
« La cible, qu’est-ce qu’elle a l’habitude de voir ? Est-ce qu’elle a l’habitude de voir des contenus faits avec l’IA ? Est-ce qu’elle les voit comme quelque chose de positif, comme négatif ? Est-ce qu’elle les reconnaît ? Si tu arrives à produire du contenu qui est exactement comme celui que la cible a l’habitude de voir, Meta il va pas le pénaliser. »
Voilà. Ce n’est pas Meta qui pénalise un contenu IA en tant que tel – c’est l’audience qui réagit mal, et l’algo qui enregistre ces signaux négatifs. Nuance importante.
En pratique chez DHS, l’IA est utilisée pour les B-rolls (les plans de coupe pendant qu’un créateur parle) et potentiellement pour des hooks. Pas pour une vidéo UGC complète du hook au CTA. Nano Banana est cité comme le meilleur outil actuel pour la génération d’images – testé sur des visuels produit avec des mises en scène insolites (la sauce dans un hamburger, par exemple). Sora est sur leur liste de tests imminents. ChatGPT pour la génération d’images ? Moins convaincant, selon eux.
Ce que j’aurais voulu qu’on creuse davantage – enfin, ce que j’aurais voulu entendre – c’est une estimation chiffrée du gain de temps réel. Parce que l’argument « l’IA compense l’augmentation des coûts de production » reste un peu flottant sans données concrètes. Ce qui est certain : les coûts de production créa vont augmenter. L’IA rééquilibre partiellement, pas totalement.
Sur cette question précise de l’automatisation créa avec l’IA, ce guide sur l’automatisation créa avec l’IA va beaucoup plus loin.
Itérer sur une créa gagnante : oui, mais pas n’importe comment
Dernière question traitée dans l’épisode, et peut-être la plus actionnable au quotidien : est-ce qu’on itère encore sur les créas gagnantes, ou on repart de zéro à chaque fois ?
Réponse directe : on itère. Mais uniquement sur les top créas. Et en regardant trois métriques précises pour identifier le point faible :
Le hook rate (combien de gens regardent les premières secondes), le hold rate (l’attention sur toute la durée de la vidéo), et le CTR (est-ce que la pub fait cliquer). Si une de ces trois métriques est en dessous de la moyenne du compte ou d’un benchmark connu, l’itération se justifie. Et dans ce cas, on ne change pas juste une tagline – on change plusieurs éléments simultanément pour que l’algorithme Andromeda Meta Ads perçoive ça comme une vraie variante.
Ce qu’il faut avoir en tête, et l’épisode le dit clairement : les règles ont changé, mais la finalité reste la même. Danilo le résume bien en fin d’épisode :
« Ce qu’il faut aller chercher, c’est vraiment la satisfaction de l’audience, lui proposer du contenu qui lui intéresse et donc avoir une diversité. En soi, la finalité, c’est vraiment aller regarder son audience et répondre à ses besoins. »
Et sur ce point, l’algorithme Andromeda Meta Ads ne fait que rendre explicite ce qui aurait toujours dû être l’objectif. Ce n’est pas une révolution de la logique – c’est une révolution de la contrainte. Tu peux plus te permettre de faire semblant de tester en changeant trois pixels.
Un conseil pratique qui ressort en fin d’épisode, et que je trouve particulièrement solide : constituer une bibliothèque de B-rolls et de plans bruts exploitables. Pas juste pour une campagne. Pour toutes les campagnes à venir. Des plans produit, des mains qui appliquent, des focales sur les textures – tout ce qui peut être remonté et recontextualisé. Un client de DHS s’est retrouvé bloqué parce qu’il n’avait pas ces ressources dans son drive. Résultat : des concepts validés impossible à produire, faute de matière première visuelle.
C’est le genre de détail opérationnel qu’on retrouve dans les points communs des plus gros comptes Meta Ads – et qui fait souvent la différence entre une marque qui suit les changements d’algo et une marque qui les anticipe.
Ce qui reste ouvert à ce stade : on n’a toujours pas de documentation officielle Meta sur ce que l’algorithme Andromeda Meta Ads considère exactement comme une variante. Les tests terrain donnent des indices. Mais sans cadre officiel, chaque compte reste un terrain d’expérimentation. Et peut-être que c’est volontaire.











