Comparaison des modèles de régression sur les données de dénombrement


11

J'ai récemment ajusté 4 modèles de régression multiple pour les mêmes données de prédicteur / réponse. Deux des modèles que je correspond à la régression de Poisson.

model.pois <- glm(Response ~ P1 + P2 +...+ P5, family=poisson(), ...)
model.pois.inter <- glm(Response ~ (P1 + P2 +...+ P5)^2, family=poisson(), ...)

Deux des modèles auxquels je correspond avec une régression binomiale négative.

library(MASS)
model.nb <- glm.nb(Response ~ P1 + P2 +...+ P5, ...)
model.nb.inter <- glm.nb(Response ~ (P1 + P2 +...+ P5)^2, ...)

Existe-t-il un test statistique que je peux utiliser pour comparer ces modèles? J'ai utilisé l'AIC comme mesure de l'ajustement, mais AFAIK, cela ne représente pas un test réel.


Vous souhaitez comparer l' ajustement des modèles à l' aide d'un test statistique, non? Quel genre d'hypothèse aimeriez-vous tester?
Firefeather

@Firefeather Par exemple, je voudrais tester si l'ajustement de model.nb.interest significativement meilleur que celui de model.pois.inter. Oui, l'AIC est plus bas, mais combien plus bas constitue significativement mieux ?
Daniel Standage du

Remarque: la réponse à cette question ne doit pas nécessairement inclure l'AIC.
Daniel Standage

Je ne connais pas la réponse à cette question, mais je peux commencer. Je sais que vous pouvez utiliser un test pour comparer contre (et comparer de la même contre ), mais je ne peux pas garantir que les comparaisons entre un modèle de Poisson et un modèle binomial négatif fonctionnerait. Je me demande si un test pour comparer les variances de chaque paire serait fiable. FFmodel.poismodel.pois.intermodel.nbmodel.nb.interF
Firefeather

1
@Firefeather, oui je suis conscient de la nécessité de contrôler le niveau de confiance familial. Scheffe serait-il plus approprié ici que, disons, Bonferroni?
Daniel Standage

Réponses:


14

Vous pouvez comparer le modèle binomial négatif au modèle de Poisson correspondant avec un test de rapport de vraisemblance. Un modèle de Poisson est équivalent à un modèle binomial négatif avec un paramètre de surdispersion de zéro. Il s'agit donc de modèles imbriqués et les rapports de vraisemblance sont valides. La complication est que le paramètre de surdispersion est restreint pour être non négatif, c'est-à-dire qu'il ne peut logiquement pas être inférieur à zéro, donc l'hypothèse nulle est à la frontière de l'espace des paramètres. Cela signifie qu'au lieu de comparer deux fois la probabilité logarithmique à une distribution chi carré avec un degré de liberté, vous devez la comparer à une distribution de mélange composée de parties égales d'un chi carré avec 1 df et d'une masse ponctuelle à zéro. (une distribution chi carré avec zéro degré de liberté). En pratique, cela signifie que vous pouvez calculer la valeur de p à l'aide du chi carré avec 1 df, puis la diviser par deux. Pour plus de détails et de contexte, voir le cas 5 deSelf & Liang JASA 1987; 82 : 605-610. .

Notez que certains progiciels statistiques, tels que Stata, feront tout cela automatiquement pour vous lorsque vous adapterez un modèle binomial négatif. En fait, j'ai honteusement imputé une grande partie de ce qui précède à partir du système d'aide Stata - si vous avez Stata voir help j_chibar.


5

Je crois que anova()R peut être utilisé pour cela. Malgré son nom, c'est un test de rapport de vraisemblance. Crawley dans son The R Book a quelques exemples d'utilisation.


1

Comme notes uniques, les modèles étant imbriqués, vous pouvez effectuer un test de rapport de vraisemblance.

En général, ce n'est pas vrai, donc si vous voulez comparer des modèles non imbriqués, vous pouvez utiliser le test de Vuong .

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.