J'ai la sortie de précision du classificateur en pourcentage et le nombre d'échantillons d'entrée. Existe-t-il un test qui puisse dire à quel point le résultat est statistiquement significatif d'après ces informations?
Merci
J'ai la sortie de précision du classificateur en pourcentage et le nombre d'échantillons d'entrée. Existe-t-il un test qui puisse dire à quel point le résultat est statistiquement significatif d'après ces informations?
Merci
Réponses:
Vous voulez définir la distribution de la précision de juste deviner. C'est peut-être comme où binomial(, ) pour certains connus (disons 50%).
Calculez ensuite la chance d'observer les résultats que vous avez obtenus, si ce modèle nul était vrai. Dans R, vous pouvez l'utiliser binom.test
ou le calculer directement avec pbinom
.
Habituellement, vous voudriez comparer l'exactitude non pas à "deviner" mais à une autre méthode, auquel cas vous pourriez utiliser le test de McNemar ; dans R, mcnemar.test
.
Je ne vois pas où le test contre le hasard complet est si utile. Un classificateur qui ne peut battre que des suppositions aléatoires pures n'est pas très utile. Un problème plus important est l'utilisation de proportions correctement classées comme votre score de précision. Il s'agit d'une règle de notation incorrecte discontinue qui peut être facilement manipulée car elle est arbitraire et insensible. Une (parmi de nombreuses) façons de voir ses lacunes est de calculer correctement la proportion classée si vous avez un modèle avec seulement une interception. Elle sera élevée si les résultats ne sont pas proches de 0,5 en prévalence.
Une fois que vous avez choisi une règle plus appropriée, il serait utile de calculer un intervalle de confiance pour l'indice. La signification statistique a peu de valeur.
Bien sûr, vous pouvez calculer un intervalle de confiance . Si est votre précision estimée sur un ensemble de tests de éléments, il soutient que
Je pense que vous pouvez calculer à quel point vos performances diffèrent d'une performance aléatoire calculant le gain . La précision d'un classificateur aléatoire est:
Le gain est:
Je pense en fait qu'un test statistique peut être esquissé. Le numérateur pourrait être considéré comme une variable aléatoire normale,, mais vous devez déterminer quel type de variable aléatoire le dénominateur pourrait être.
Vous pouvez être intéressé par les articles suivants:
Je pense qu'ils couvrent ce dont parle Dimitrios Athanasakis.
J'ai implémenté une option de Yeh de la manière que je comprends:
Je pense qu'une chose que vous pourriez essayer serait un test de permutation. Il suffit de simplement permuter de manière aléatoire les paires de sortie d'entrée souhaitées que vous alimentez votre classificateur plusieurs fois. S'il ne parvient pas à reproduire quoi que ce soit au même niveau sur 100 permutations différentes, il est significatif à 99% d'intervalle, etc. Il s'agit essentiellement du même processus utilisé pour obtenir des valeurs de p (qui correspondent à la probabilité d'obtenir une corrélation linéaire de la même mangnitude après permutation aléatoire des données) et ainsi de suite.