L'équivalence n'est jamais quelque chose que nous pouvons tester . Réfléchissez à l'hypothèse: vs . La théorie NHST nous dit que, sous l'hypothèse nulle, nous pouvons choisir quoi que ce soit sous qui convient le mieux les données. Cela signifie que nous pouvons presque toujours nous rapprocher arbitrairement de la distribution. Par exemple, si je veux tester , le modèle de probabilité qui permet des distributions séparées de et sera toujours plus probable sous le null, une violation des hypothèses de test critiques. Même si l'échantillonH 1 : f x = f y H 0 f x ~ N (0,1) f x f y X=Y f y ≈ f xH0:fx≠fyH1:fx=fyH0fx∼N(0,1)f^xf^yX=Yidentiquement, je peux obtenir un rapport de vraisemblance qui est arbitrairement proche de 1 avec .fy≈fx
Si vous connaissez un modèle de probabilité approprié pour les données, vous pouvez utiliser un critère d'information pénalisé pour classer les modèles alternatifs. Une façon consiste à utiliser les BIC des deux modèles de probabilité (celui estimé sous et . J'ai utilisé un modèle de probabilité normal, mais vous pouvez facilement obtenir un BIC de n'importe quel type de procédure de vraisemblance maximale, soit à la main, soit à l'aide du GLM. Ce post Stackoverflow est très utile pour ajuster les distributions. Un exemple de cette opération est ici:H 1H0H1
set.seed(123)
p <- replicate(1000, { ## generate data under the null
x <- rnorm(100)
g <- sample(0:1, 100, replace=T)
BIC(lm(x~1)) > BIC(lm(x~g))
})
mean(p)
donne
> mean(p)
[1] 0.034
p est ici la proportion de fois où le BIC du modèle nul (modèles séparés) est meilleur (inférieur) que le modèle alternatif (modèle équivalent). Ceci est remarquablement proche du niveau nominal de 0,05 des tests statistiques.
Par contre si l'on prend:
set.seed(123)
p <- replicate(1000, { ## generate data under the null
x <- rnorm(100)
g <- sample(0:1, 100, replace=T)
x <- x + 0.4*g
BIC(lm(x~1)) > BIC(lm(x~g))
})
mean(p)
Donne:
> mean(p)
[1] 0.437
Comme pour le NHST, il existe des problèmes subtils de puissance et de taux d'erreur de faux positifs qui devraient être explorés par simulation avant de tirer des conclusions définitives.
Je pense qu'une méthode similaire (peut-être plus générale) utilise les statistiques bayésiennes pour comparer l'estimation postérieure sous l'un ou l'autre modèle de probabilité.