ab test e-commerce

CRO : Exemples pratiques d’A/B tests sur un site e-commerce avec Pablo Le Normand & Laurent Therry, Experts CRO @Uxia

Épisode diffusé le 24 novembre 2023 par Danilo Duchesnes

Écouter l'épisode :

0:00 --:--
Vitesse

Un ab test e-commerce qui augmente le taux de conversion mais fait chuter le revenu par utilisateur. C’est exactement ce qui s’est passé chez un client de l’agence Uxia quand ils ont intégré le one click payment sur la page produit. Pablo Le Normand et Laurent Therry – les deux experts CRO derrière Uxia – racontent l’anecdote sans fard dans un épisode du Rendez-vous Marketing animé par Danilo Duchesnes. Et franchement, c’est le genre de détail qui devrait clouer le bec à tous ceux qui pilotent encore leur boutique au taux de conversion brut.

Le truc c’est que la plupart des e-commerçants font des tests. Mais ils regardent la mauvaise métrique. Ou ils stoppent trop tôt. Ou ils testent sur du trafic influenceur qui biaise tout. Pablo et Laurent ont passé une bonne heure à décortiquer leur approche – et ce qui en ressort, c’est moins une liste de bonnes pratiques qu’une façon de penser qui change radicalement comment on lit les résultats.

Le RPU : la seule métrique qui compte vraiment dans un ab test e-commerce

Commençons par là où presque tout le monde se plante. Quand tu lances un ab test e-commerce, tu regardes quoi en premier ? Le taux de conversion, forcément. C’est la métrique la plus visible, la plus immédiate – et c’est exactement pour ça qu’elle est trompeuse.

Pablo l’explique avec un exemple concret qui fait mal :

Le taux de conversion a augmenté mais le panier moyen a diminué et au final son revenu par utilisateur a diminué. Donc c’était pas intéressant de le mettre sur la page produit.

Le one click payment sur la page produit – ça paraît logique sur le papier. Moins de friction, plus de conversions. Sauf que les gens qui convertissent plus vite achètent moins. Ils prennent un article, ils cliquent, c’est fini. Le RPU – revenu par utilisateur – chute. Et le test qui semblait gagner était en train de faire perdre de l’argent.

Le RPU, c’est la combinaison du taux de conversion et du panier moyen. Ces deux métriques ensemble. Pas l’une ou l’autre – les deux. C’est ce que les outils d’ab testing classiques ne te donnent pas automatiquement, d’ailleurs (et c’est souvent là que ça coince). D’où l’intérêt de connecter ton outil à GA4 pour avoir une vision plus complète de ce qui se passe vraiment.

Pour aller plus loin sur les KPIs à surveiller en e-commerce, l’article sur les indicateurs indispensables pour piloter une activité e-commerce complète bien ce point.

La p value, ou comment ne pas se faire avoir par le hasard

Statistiquement parlant, un ab test e-commerce qui tourne depuis 4 jours ne vaut rien. Pourtant, combien d’équipes marketing ont arrêté un test à J+5 parce que la variante B avait 2 points de conversion de plus ?

Laurent introduit la p value – une métrique venue du growth qui s’est imposée en CRO. Le principe est brutal dans sa simplicité : si la p value de ton test est supérieure à 5%, ton résultat est peut-être dû au hasard. Point. Tu ne valides pas. Tu continues.

Cette métrique doit être inférieure à 5 % pour que tu te dise OK, mon AB test, il est concluant et il n’est pas dû au hasard. Tant que cette métrique n’est pas inférieure à 5 %, tu peux pas valider ce test en fait.

Dit comme ça, ça a l’air simple. Mais en pratique, ça veut dire tenir 2 à 3 semaines sur un test. Sans céder à la pression du client qui veut des résultats en fin de semaine.

Les outils d’ab testing sérieux calculent ça automatiquement – certains proposent même de connecter tes tests à GA4 pour segmenter les résultats par audience. Kameleoon le propose, selon Laurent. Ce qui est utile quand tu veux savoir si c’est ta cible mobile qui répond différemment de ton trafic desktop, par exemple.

Et les seuils de confiance que Laurent cite – 93-95% pour avoir une « overview », 97-98% pour être certain – correspondent à cette logique. Tu peux commencer à voir qui gagne à 93%, mais tu ne fermes pas le test avant 97. Ce qui, avec 1000 visiteurs par jour sur du trafic froid, prend environ 2 à 3 semaines.

1000 visiteurs par jour : le seuil que personne ne te dit dans un ab test e-commerce

Quel volume de trafic faut-il pour qu’un ab test e-commerce soit pertinent ? La question revient tout le temps. La réponse de Pablo : 1000 visiteurs par jour. Soit environ 30 000 visiteurs mensuels.

Ce chiffre n’est pas arbitraire. C’est le palier à partir duquel les résultats commencent à avoir une vraie signification statistique sous 15 jours à 3 semaines. En dessous, tu peux tourner un test pendant deux mois et avoir une p value qui refuse de passer sous les 5%.

Mais il y a un piège que peu de gens anticipent – et c’est là que l’exemple de Nali devient vraiment intéressant. Cette marque fonctionne beaucoup à l’influence : des pics de trafic massifs sur 3 jours, puis retour au calme. Impossible de faire tourner un ab test e-commerce propre dans ces conditions. Leur solution ?

Ils avaient complètement éludé les pics de visites de 3 jours via les influenceurs et ils avaient fait leur AB test uniquement sur le trafic froid qui était stable et lisse. Ce qui était plus pertinent en tout cas pour eux.

Voilà. C’est contre-intuitif mais logique : le trafic chaud – retargeting, influence, newsletters – convertit mieux par définition. Si tu testes sur ce segment, tu mesures l’effet de la chaleur du trafic, pas l’effet de ton test. Le trafic froid est le seul terrain neutre.

Ce principe rejoint d’ailleurs ce qu’on retrouve dans les discussions sur le process CRO en 5 étapes développé par les mêmes experts dans un épisode précédent.

Les tests qui font vraiment bouger les chiffres (et ceux qui surprennent tout le monde)

Ce qui m’a scotché dans cette partie de la conversation, c’est la liste des tests à fort impact. Parce qu’elle mélange des évidences et des trucs auxquels personne ne pense.

Les images d’abord. Main Roast a testé image produit seul versus image produit avec ses composantes autour. Les composantes ont explosé l’image seule. Logique – mais combien de boutiques ont encore leurs photos sur fond blanc sans contexte ? Et surtout : dans le secteur du linge de lit, le packshot marche bien. Dans la mode, c’est le mannequin. Dans le meuble, c’est la mise en situation. Il n’y a pas de règle universelle – il y a un test à faire pour chaque verticale.

Les prix ensuite. Tester des variantes de prix, y compris à la hausse. Laurent l’explique clairement :

Vous seriez vachement surpris de savoir que des fois des prix plus chers permettent de mieux vendre parce que justement la valeur perçue est plus grande.

L’exemple de la montre est caricatural mais il dit quelque chose de vrai sur la psychologie d’achat. Une montre à 200 euros dans un univers luxe, ça sent la contrefaçon. À 2000, les gens commencent à construire une justification rationnelle autour de l’achat.

Et puis il y a le test dont personne ne parle : la taille de police. Passer de 14px à 16px en desktop. Pablo a un client qui résiste encore à ce changement – et Pablo est convaincu que le jour où ce client cédera, sa conversion va suivre. Parce que le confort de lecture et le taux de conversion sont liés. Si les gens doivent forcer pour lire, ils partent. C’est aussi bête que ça.

Sur la question de la page produit et du paiement fractionné, l’expérience avec une marque de luxe est particulièrement parlante. Afficher Alma x2 x3 x4 sur une page produit premium a fait chuter le taux d’ajout au panier. L’accessibilité financière signalée par le paiement en plusieurs fois contredisait le positionnement premium de la marque. Le test a tranché ce que l’intuition ne pouvait pas décider seule. À ce sujet, l’épisode sur le paiement en 1 clic pour booster les conversions explore l’autre face de cette question.

  • Tester texte court versus texte long sur les landing pages – pas de règle universelle ici non plus
  • Tester l’USP en homepage, les titres produit, les angles marketing sur différentes landing pages
  • Tester les avis clients en version texte versus vidéo, en ciblant chaque avis sur un angle marketing précis

Et sur les pages collection : « ajouter au panier » versus « plus d’informations » pour naviguer vers la page produit. Pablo et Laurent étaient convaincus que le bouton d’achat direct allait s’imposer. Résultat : 50-50. Le test a complètement contredit leur intuition.

Combien de tests par mois – et sur quels outils pour un ab test e-commerce sérieux

La question du volume de tests est sous-estimée. Beaucoup pensent qu’un test par mois, c’est déjà bien. En réalité, si tu as plusieurs typologies de pages – homepage, pages collection, pages produit, landing pages – tu peux faire tourner plusieurs tests en parallèle simultanément. Chaque test sur sa propre page, sans interférence.

Pablo calcule : entre 1 et 2 tests par typologie par mois sur 4 semaines. Avec 4-5 typologies de pages, tu arrives vite à 7-10 tests validés par mois. C’est un rythme qui transforme une boutique en 6 mois – enfin, à condition d’avoir les 1000 visiteurs journaliers pour que les résultats tiennent.

Sur les outils, Pablo et Laurent sont assez directs. Google Optimize n’existe plus – et Optimize 360 va devenir payant ou l’est déjà selon les sources. Ce qui reste :

Pour les petits budgets : Hotjar (ou Ojar comme il est parfois prononcé dans le podcast) et Microsoft Clarity, qui est gratuit et développé par Microsoft – ce qui est rare dans le secteur. Crazy Egg pour ceux qui veulent combiner heatmaps et ab testing. IntelliJ pour les boutiques Shopify.

Pour les budgets intermédiaires : VWO, que Pablo et Laurent considèrent comme le meilleur rapport qualité-prix du marché actuellement. L’offre gratuite permet déjà 30 000 sessions par mois – suffisant pour démarrer. Et Convert.com, recommandé par Sébastien Tortu (dont l’épisode sur les exemples concrets pour optimiser le taux de conversion vaut aussi le détour), présenté comme très agressif sur le rapport qualité-prix.

Pour les gros budgets : Kameleoon et AB Tasty. Des outils qui coûtent très cher à l’année – réservés aux e-commerces qui tournent vraiment ou aux groupes qui peuvent absorber le coût.

La connexion entre ton outil d’ab testing et GA4 est recommandée quand la plateforme le propose. Ça te permet de voir non seulement quelle variante convertit mieux, mais aussi quelle audience répond différemment – ce que la plupart des outils standalone ne te donnent pas nativement.

Ce que l’épisode ne dit pas – et qui mérite d’être dit

Il faut être honnête sur une limite de cette approche. Tout ce framework – RPU, p value, 1000 visiteurs par jour, 2-3 semaines par test – suppose une boutique avec un trafic organique stable et diversifié. Pour les marques qui vivent quasi-exclusivement de l’ads payant avec des budgets saisonniers, c’est plus compliqué. Les pics de dépense publicitaire créent exactement le même problème que les pics d’influence dont parle Nali.

Et les meilleures pratiques pour doubler son taux de conversion documentées dans l’épisode suivant de la même série montrent que l’ab testing s’inscrit dans un process plus large – avec une phase d’audit, de priorisation par impact potentiel, avant même de lancer le premier test.

Ce qui m’agace dans beaucoup de contenus CRO, c’est l’idée que « tester c’est facile ». Tester bien – avec le bon trafic, la bonne durée, la bonne métrique et un outil qui calcule la p value – c’est un vrai travail. Pablo et Laurent le font comprendre sans le dire explicitement : leur valeur ajoutée, c’est autant de savoir quoi tester que de savoir comment lire ce que le test raconte.

La question que je me pose en sortant de cet épisode – et que j’aurais voulu qu’on creuse davantage – c’est celle du coût d’opportunité. Quand tu immobilises une page pendant 3 semaines sur un test, tu renonces à d’autres changements. Comment Uxia arbitre entre vitesse d’exécution et rigueur statistique quand un client est sous pression ?

Questions fréquentes

Combien de trafic faut-il pour faire un ab test e-commerce fiable ? +
Pablo Le Normand recommande un minimum de 1000 visiteurs par jour, soit environ 30 000 visiteurs mensuels. En dessous de ce seuil, les résultats manquent de signification statistique et le test peut prendre des mois sans jamais produire de conclusion solide. Ce trafic doit idéalement être du trafic froid - campagnes acquisition - et non du retargeting ou de l'influence qui convertit mécaniquement mieux et biaise les résultats.
Quelle métrique regarder en priorité dans un ab test e-commerce ? +
Le RPU - revenu par utilisateur - qui combine taux de conversion et panier moyen. Regarder uniquement le taux de conversion peut induire en erreur : un test peut augmenter la conversion tout en faisant chuter le panier moyen, ce qui se traduit par une baisse du revenu réel. C'est exactement ce qui s'est passé avec le one click payment testé sur la page produit d'un client d'Uxia.
Combien de temps doit durer un ab test e-commerce ? +
Entre 2 et 3 semaines en général, selon Laurent Therry. L'objectif est d'atteindre une p value inférieure à 5% - ce qui signifie que le résultat n'est pas dû au hasard. Les outils d'ab testing sérieux calculent ce seuil automatiquement. À 93-95% de confiance, tu commences à voir qui va gagner. À 97-98%, le résultat est validé.
Quels sont les meilleurs outils d'ab test pour un e-commerce avec un petit budget ? +
Pour démarrer : Microsoft Clarity (gratuit), Hotjar, et Crazy Egg qui combine heatmaps et ab testing. Pour Shopify en particulier, IntelliJ est une option. VWO est cité comme le meilleur rapport qualité-prix du marché avec une offre gratuite permettant 30 000 sessions par mois. Convert.com est également recommandé comme très compétitif sur le prix. Les solutions enterprise comme Kameleoon et AB Tasty sont réservées aux gros volumes.
Peut-on faire plusieurs ab tests e-commerce en même temps ? +
Oui, à condition que chaque test tourne sur une typologie de page différente - page produit, page collection, homepage, landing pages. Les tests n'interfèrent pas entre eux s'ils sont sur des pages distinctes. Avec 4-5 typologies de pages et 1 à 2 tests par mois par type, on peut valider entre 7 et 10 tests par mois.
Est-ce que le paiement fractionné améliore toujours la conversion e-commerce ? +
Pas dans tous les secteurs - et c'est précisément pour ça qu'un ab test e-commerce s'impose. Dans le luxe, afficher du paiement en 3 ou 4 fois peut dégrader l'image de marque et faire chuter le taux d'ajout au panier. La marque envoie un signal d'accessibilité qui contredit son positionnement premium. Le test tranche ce que l'intuition ne peut pas décider seule.

Épisodes similaires

  • E-commerce & Affiliation