Un webinaire organisé l'autre jour par une société de test a / b a demandé à son "Data Scientist" résident d'expliquer que vous devriez valider vos résultats en réexécutant l'expérience. La prémisse était que, si vous sélectionnez une confiance de 95%, il y a 5% (1/20) de risque de faux positif. Si vous réexécutez votre expérience avec les mêmes contraintes, il y a maintenant un 1/400 (je suppose qu'ils l'ont déterminé comme 0,05 ^ 2 = 1/400)
Est-ce une déclaration valide? (c.-à-d. «exécuter deux fois, deux gains de signification statistique = probabilité de faux positif de 1/400»)? Cela aurait-il été une meilleure approche pour augmenter votre niveau de signification?
D'un point de vue commercial, la préoccupation que j'ai est de relancer l'expérience, vous exposez plus d'utilisateurs à une page inférieure (traitement) et perdez ainsi des ventes potentielles.