3 conseils pour mener des test A/B… utiles !
27 septembre 2019
Nous passons beaucoup de temps sur Internet. Et pour cette raison, nous sommes rendus extrêmement sensibles à l’ergonomie d’un site Web, surtout s’il est transactionnel; le simple fait de devoir remplir un formulaire avant de compléter un achat, par exemple, en rebutera plus d’un. Une des principales méthodes éprouvées pour améliorer l’expérience utilisateur d’un site Web est le recours à des tests A​/B.
De quoi s’agit-il ? Les tests A/B visent à comparer deux versions d’un même site Web, pour savoir laquelle génère le plus d’engagements de la part des visiteurs.
Dans l’optique d’un site transactionnel, le but visé est généralement d’augmenter le nombre de conversions. Des tests peuvent ainsi être conduits sur les items du menu de la page d’accueil, le bouton d’abonnement à l’infolettre, la page expliquant les tarifs et les forfaits, sur la manière de présenter les produits (longueur de la description, disposition des images), etc.
Les possibilités, en fait, sont infinies. C’est pourquoi il est essentiel de s’y lancer avec méthode. Voici les bonnes pratiques en matière de tests A/B.
1. Inutile de réinventer la roue
D’autres marketeurs avant vous ont tenté des tests A/B, parfois sur un trafic beaucoup plus important que celui de votre site. Ce n’est donc pas la peine de tester des évidences, ou encore, des principes de navigation déjà éprouvés.
Vous pouvez trouver des exemples de tests en ligne qui démontre des gains en changeant simplement la couleur d’un bouton, mais il s’agit souvent d’évidence, explique Franck Scandolera, consultant en analytique. Ne perdez donc pas votre temps à tester l’évidence, changer de couleur directement. Utilisez votre trafic pour tester des hypothèses qui bougent les lignes et qui vous en apprennent plus sur vos clients et potentiels clients. »
2. Avoir de solides assises statistiques
Autre point à vérifier avant de se lancer : a-t-on la masse critique de visiteurs pour obtenir des résultats rapides et significatifs ?
Les tests AB sont un outil extraordinaire pour optimiser durablement ses résultats, mais ce n’est pas quelque chose que vous devez utiliser pour l’optimisation de conversion si vous avez très peu de trafic. La raison en est que, même si la version B fait beaucoup mieux, cela pourrait prendre plusieurs mois pour atteindre le taux de 95% de fiabilité statistique. »
Qu’est-ce que la « fiabilité statistique », dites-vous ? Franck Scandolera à nouveau :
La fiabilité ou la confiance statistique vous indique si votre test est statistiquement fiable, si la version A est réellement meilleure que la version B, si la taille de l’échantillon est suffisamment grande. 5o% de fiabilité statistique correspond à un tirage au sort. Pile ou face. 75% de fiabilité statistique n’est pas suffisant, 25% de chance de se tromper, c’est trop risqué. »
On conseille de viser une fiabilité de 95%.
3. Tester un item à la fois
La tentation est grande, pour sauver du temps, de mener plusieurs tests à la fois. Il existe deux dangers à aller dans ce sens. D’une part, tester plusieurs items à la fois rend pratiquement impossible la validation de la fiabilité statistique (pour plus d’explications, lire l’histoire de la fois ou Google a voulu tester 41 nuances de bleus…), ce qui induit des « faux positifs » ou des « faux négatifs ».
D’autre part, elle vous prive du savoir lié à la conduite d’un test unique. Car, lorsque vous testez simultanément les versions A, B, C et D, il est impossible de départager ce qui a réellement fait grimper vos conversions, est-ce le changement B, C… ou D ?
Or, avec deux options, vous pouvez clairement affirmer que A est préférable à B, dès lors que A affiche un taux de conversion plus élevé.
Bonne expérimentation!
Sur le même thème
referencement • SEO