Conseils pour les tests A / B sur les tests Google Play

Google Play

Pour les développeurs d'applications Android, Expériences Google Play peut fournir des informations précieuses et aider à augmenter les installations. L'exécution d'un test A / B bien conçu et bien planifié peut faire la différence entre un utilisateur installant votre application ou celle d'un concurrent. Cependant, il existe de nombreux cas où des tests ont été mal exécutés. Ces erreurs peuvent nuire à une application et nuire à ses performances.

Voici un guide d'utilisation Expériences Google Play pour Le test A / B.

Configurer une expérience Google Play

Vous pouvez accéder à la console de test à partir du tableau de bord de l'application de la console développeur de Google Play. Aller à Présence en magasin sur le côté gauche de l'écran et sélectionnez Tests pour les fiches Play Store. De là, vous pouvez sélectionner "Nouvelle expérience" et configurer votre test.

Il existe deux types d'expériences que vous pouvez exécuter: Expérience graphique par défaut et Expérience localisée. L'expérimentation graphique par défaut n'exécutera des tests que dans les régions avec la langue que vous avez sélectionnée par défaut. Localized Experiment, en revanche, exécutera votre test dans n'importe quelle région dans laquelle votre application est disponible.

Le premier vous permet de tester des éléments créatifs tels que des icônes et des captures d'écran, tandis que le second vous permet également de tester vos descriptions courtes et longues.

Lorsque vous choisissez vos variantes de test, gardez à l'esprit que plus vous testez de variantes, plus il faudra de temps pour obtenir des résultats exploitables. Trop de variantes peuvent entraîner des tests nécessitant plus de temps et de trafic pour établir un intervalle de confiance qui détermine l'impact possible de la conversion.

Comprendre les résultats de l'expérience

Lorsque vous exécutez des tests, vous pouvez mesurer les résultats en fonction des nouveaux installateurs ou des installateurs conservés (un jour). Les nouveaux installateurs correspondent au total des conversions liées à la variante, les installateurs conservés étant les utilisateurs qui ont conservé l'application après le premier jour.

La console fournit également des informations sur Current (utilisateurs qui ont installé l'application) et Scaled (combien d'installations vous auriez hypothétiquement gagnées si la variante avait reçu 100% du trafic pendant la période de test).

Expériences Google Play et tests A / B

L'intervalle de confiance de 90% est généré une fois que le test a été exécuté suffisamment longtemps pour obtenir des informations exploitables. Il affiche une barre rouge / verte qui indique comment les conversions s'ajusteraient théoriquement si la variante était déployée en direct. Si la barre est verte, c'est un décalage positif, rouge si elle est négative et / ou les deux couleurs signifient qu'elle peut basculer dans les deux sens.

Bonnes pratiques à prendre en compte pour les tests A / B dans Google Play

Lorsque vous exécutez votre test A / B, vous voudrez attendre que l'intervalle de confiance soit établi avant de tirer des conclusions. Les installations par variante peuvent changer tout au long du processus de test, donc sans exécuter le test suffisamment longtemps pour établir un niveau de confiance, les variantes peuvent fonctionner différemment lorsqu'elles sont appliquées en direct.

S'il n'y a pas suffisamment de trafic pour établir un intervalle de confiance, vous pouvez comparer les tendances de conversion semaine par semaine pour voir si des cohérences se dégagent.

Vous souhaiterez également suivre l'impact après le déploiement. Même si l'intervalle de confiance indique qu'une variante de test aurait mieux fonctionné, ses performances réelles pourraient encore différer, en particulier s'il y avait un intervalle rouge / vert.

Après avoir déployé la variante de test, gardez un œil sur les impressions et observez leur impact. Le véritable impact peut être différent de celui prévu.

Une fois que vous avez déterminé quelles variantes fonctionnent le mieux, vous voudrez itérer et mettre à jour. Une partie de l'objectif des tests A / B est de trouver de nouvelles façons de s'améliorer. Après avoir appris ce qui fonctionne, vous pouvez créer de nouvelles variantes en gardant les résultats à l'esprit.

Expériences Google Play et résultats des tests A / B

Par exemple, en travaillant avec AVIS, Gummicube a subi plusieurs séries de tests A / B. Cela a permis de déterminer les éléments créatifs et les messages les mieux convertis aux utilisateurs. Cette approche a généré une augmentation de 28% des conversions à partir des seuls tests graphiques de fonctionnalités.

L'itération est importante pour la croissance de votre application. Cela vous aide à augmenter continuellement le nombre de conversions à mesure que vos efforts augmentent.

Conclusion

Les tests A / B peuvent être un excellent moyen d'améliorer votre application et votre Optimisation App Store. Lors de la configuration de votre test, assurez-vous de limiter le nombre de variantes que vous testez à la fois pour accélérer les résultats du test.

Pendant le test, surveillez comment vos installations sont affectées et ce que l'intervalle de confiance affiche. Plus il y a d'utilisateurs qui voient votre application, meilleures sont vos chances d'établir une tendance cohérente qui valide les résultats.

Enfin, vous voudrez constamment itérer. Chaque itération peut vous aider à savoir ce qui convertit le mieux les utilisateurs, afin que vous puissiez mieux comprendre comment optimiser votre application et sa mise à l'échelle. En adoptant une approche méthodique des tests A / B, un développeur peut travailler à la croissance de son application.

Que pensez-vous?

Ce site utilise Akismet pour réduire les spams. Découvrez comment sont traitées les données de vos commentaires..