L’AB test une technique marketing qui vise à tester 2 versions différentes d’un même contenu (email, formulaire, landing page…) afin d’identifier celle qui génère le plus de conversions (abonnement, vente…). En menant des tests régulièrement, l’AB testing représente un excellent moyen d’optimiser en permanence les performances de vos campagnes marketing online et off-line.
L’AB test, pour qui ?
L’AB testing est utilisé depuis longtemps par les acteurs du marketing direct comme les sociétés de vente par correspondance. Objectif ? Mesurer l’impact de leurs campagnes de publicité par voie postale.
Le papier, l’impression, l’affranchissement des courriers coûtent cher, il a fallu trouver très tôt un moyen de rentabiliser au mieux les campagnes. Dès 2000, Google a également mené des AB tests pour déterminer le nombre de résultats optimal sur une page de recherche.
Aujourd’hui, cette technique est largement reprise par les acteurs de l’e-commerce de par sa facilité de mise en place dans un environnement digital. 75% des sites générant un trafic de plus d’1 million de visiteurs font de l’A/B testing. Mais l’AB test convient aussi parfaitement à d’autres secteurs d’activité : tester un nouveau packaging d’une bouteille de lait par exemple ou bien la nouvelle saveur d’une tablette de chocolat.
Qu’est-ce qu’un AB test exactement ?
Voici la définition de l’A/B testing : c’est une expérience scientifique qui sert à valider (ou invalider) des hypothèses d’amélioration (sur une page web, la créa d’un emailing, un formulaire, un bouton d’action…) comparées à une variante de référence.
La version A étant celle de base, la B, l’hypothèse d’optimisation, la version challenger. Avec une mécanique AB test, il devient facile de vérifier quelle version obtient le plus de résultats positifs en se basant sur l’analyse statistique des performances.
Vous pouvez par exemple tester le taux d’ouverture d’un emailing en essayant 2 objets différents. Vous exposez les 2 versions à 2 populations distinctes de votre base de contacts, choisies aléatoirement. Vous mesurez ensuite les résultats pour déterminer l’objet de l’email qui aura généré le plus d’ouvertures. Un A/B test mené par Le Figaro Etudiant sur l’intégration de liens « Top recherche » sur son moteur de recherche a permis par exemple d’augmenter le nombre de chargements de pages de résultats de 52 %.
Quelle est la différence entre test AB, split testing, test A/B/n et test multivarié ?
Plusieurs modèles de mesure scientifique des performances marketing par la comparaison peuvent être mis en place. Vous pourrez notamment entendre parler du :
Split testing : a contrario de l’AB test qui utilise 2 versions d’une même page modifiée en live, le split testing lui redirige les clients/prospects vers 2 pages hébergées sur 2 URLs différentes. La modification dynamique d’une page peut entraîner un effet flicker (ou flickering) pendant lequel (une simple fraction de seconde), la page A est affichée au lieu de la page B. Les solutions d’AB testing traite généralement cet accroc technique de façon à limiter drastiquement l’effet flicker.
Test A/B/n : il permet de tester non pas 2 variables, mais plusieurs. Dans ce cas, un seul élément de la page est modifié. Tester 3 visuels par exemple différents sur un descriptif produit.
Multivariate testing (ou test multivarié) : celui-ci vous permet de tester plusieurs variables conjointement et non pas une par une comme avec le test A/B/n. Le test multivarié vous permet de tester quelle combinaison de variantes est la plus performante.
L’AB test, pourquoi ?
Les grands faiseurs du web mobilisent des équipes entières pour mener en continu des tests. Amazon par exemple réalise plus de 10 000 tests par an. Fab, site e-commerce, a réalisé un test AB sur le bouton « ajouter au panier » de ses pages produits. La version A ne comportait au départ qu’une icône représentant un « caddie » et un signe « + », la version B présentait un bouton avec du texte « Add to cart ». La version B s’est montrée de loin la meilleure avec + 49 % de clics et + 15 % de conversions. Mais au-delà des ventes, l’AB testing possède d’autres avantages :
Disposer de données plus affinées sur votre audience pour mieux comprendre les comportements utilisateurs et améliorer l’expérience client en permanence.
Diminuer le facteur risque avec des prises de décision non plus basées sur des avis subjectifs, mais sur une méthodologie de test scientifique et donc, objective.
Améliorer la rentabilité de vos campagnes marketing en ne conservant que les actions qui fonctionnent le mieux.
Que peut-on tester avec l’AB testing ?
Tout dépend de l’activité de l’entreprise et de ce qu’elle souhaite améliorer. Un site e-commerce veut augmenter ses ventes, un constructeur auto le volume de leads pour des essais de voiture, un magazine en ligne son nombre d’abonnements newsletter… Pour remplir ses objectifs et réussir à rentrer dans le cercle vertueux de l’optimisation grâce à l’AB test, nombreuses sont les variables à tester.
Un exemple avec la société DHL qui a changé la composition d’une page web pour identifier comment booster les inscriptions à son formulaire « kit d’import gratuit ». Le visuel d’un paysage citadin a été changé pour le sympathique portrait d’un livreur et l’espace dédié au formulaire a été agrandi. Le texte n’a pas été modifié. Résultat : la nouvelle version s’est révélée être la meilleure avec 98 % d’inscription en plus dans 2 pays.
Selon vos besoins marketing, vous pouvez mener vos tests AB sur :
Les objets et les noms d’expéditeur des emails
Les titres et accroches des contenus (balise title, meta description, pré-headers, descriptifs produits…)
Les bannières publicitaires
Les libellés des boutons call-to-action
L’agencement et les couleurs de vos pages web et landing pages
Les visuels
Le style d’affichage des prix
Les réductions (frais de port offert vs remise produits)
Les formulaires
Les étapes du tunnel de conversion dans le parcours client
Les liens dans vos pages
…
Les étapes clés d’un process AB test
Pour lancer une mécanique de test AB, il convient de suivre quelques étapes préparatoires :
Mesurez les performances de vos campagnes marketing ou de votre site afin d’identifier les pistes d’optimisation.
Déterminez ce que vous souhaitez tester, c’est-à-dire formuler les différentes hypothèses d’optimisation. Tester 2 différents codes promo par exemple ou enlever des champs dans votre formulaire d’inscription. Dans le cas où vous formulez plusieurs hypothèses, il vous faudra peut-être les hiérarchiser pour déterminer les priorités. Pour cela, répondez à ces questions : Quelle est l’action qui semble pouvoir obtenir la marge de progression la plus importante ? Une bannière publicitaire vs un pré-header ? Quelle est la qualité du trafic sur la page web : volume, temps passé sur la page, nombre de ventes… ? Quelle hypothèse est la plus facile à mettre en place ? Temps homme vs gain espéré ?
Passez en production vos hypothèses. Dans le cas d’une page web par exemple, vous devez créer la version challenger qui viendra mettre en concurrence la version « autorité » qui n’est en fait rien d’autre que la page actuelle.
Définissez la taille de l’échantillon ou panel de consommateurs qui vont être soumis au test pour obtenir des résultats significatifs. Dans le cas d’un emailing, on demandera un minimum de 1000 contacts exposés au message. Si vous testez une page web, il faudra jouer de patience et mener votre A/B test peut-être sur plusieurs semaines avant d’avoir un résultat interprétable. On recommande un mois maximum et minimum 1 cycle de vente, idéalement 2. Notez que les échantillons exposés aux 2 différentes versions doivent être égaux en volume. En revanche, les individus de la population sont choisis de manière aléatoire. Les outils d’AB testing font cette sélection eux-mêmes.
Vous êtes maintenant prêt, lancez votre campagne, analysez les données obtenues et recommencez !
Les erreurs à éviter absolument lorsque l’on décide de mener une campagne AB test
Une campagne d’AB test peut sembler un levier de croissance miracle pour un site web. Or, si l’opération est mal conduite, c’est tout l’inverse qui pourra se produire. Voici quelques erreurs courantes à ne jamais faire :
Tester trop de variantes en même temps. Il convient d’être raisonnable et de ne se concentrer que sur une seule variante à la fois. Pourquoi ? D’une part parce que vous risquez de transformer votre mécanique de test en une véritable usine à gaz chronophage. D’autre part, parce que vous avez besoin d’un volume significatif d’individus exposés aux différentes versions. Si un site possède un faible trafic, on recommandera de ne tester qu’une seule chose à la fois.
Tester une variante trop rapidement. Un site marchand vient de relooker ses pages produits. Peu de temps après, l’équipe marketing décide de tester une version challenger de la page autorité. Malheureusement, cette dernière n’a pas eu le temps de faire ses preuves et d’obtenir des résultats parlants pour un spécialiste du data management. La bonne pratique ? Vous devez d’abord obtenir une valeur étalon avant de lancer le test, donc patience !
Tester à l’aveuglette, sans avoir pris le temps de bâtir une hypothèse. On pourrait aisément croire qu’un AB test apportera la lumière sur les choix marketing à faire. Or, comme nous l’avons vu plus haut, il faut d’abord analyser vos performances actuelles, choisir quel élément est le plus susceptible d’être amélioré et de vous fournir du chiffre d’affaires supplémentaire.
Oublier de séparer les utilisateurs mobiles et desktop. Les 2 populations ont des comportements d’achat différents. Il faudra bien en tenir compte lors de l’échantillonnage.
Ignorer la saisonnalité des ventes qui peut modifier les comportements des utilisateurs. Imaginez par exemple qu’un site e-commerce mène des tests sur un nouveau bouton call-to-action en août quand bon nombre de personnes sont en vacances, loin de leur ordinateur…
Abandonner après un seul test. En général, 1 test sur 8 obtient des résultats probants. Une campagne A/B test doit s’intégrer dans une mécanique plus large de test & learn. Chaque test a pour vocation de vous en apprendre plus sur votre audience et d’améliorer vos performances dans le temps, tests après tests…