Je pense que c'est la différence dont les tests sont calculés. car::Anova
utilise des tests de Wald, tandis que drop1
le modèle retombe en supprimant des termes uniques. John Fox m'a écrit une fois que les tests de Wald et les tests de modèles réaménagés utilisant des tests de rapport de vraisemblance (c'est-à-dire la stratégie de drop1
) conviennent pour les modèles linéaires mais pas nécessairement non linéaires. Malheureusement, ce courrier était hors liste et ne contenait aucune référence. Mais je sais que son livre contient un chapitre sur les tests Wald, qui pourrait contenir les informations souhaitées.
L'aide à car::Anova
dit:
Les tests de type II sont calculés selon le principe de la marginalité, testant chaque terme après tous les autres, sauf en ignorant les parents d'ordre supérieur du terme; les tests dits de type III violent la marginalité, testant chaque terme du modèle après tous les autres. Cette définition des tests de type II correspond aux tests produits par SAS pour les modèles d'analyse de variance, où tous les prédicteurs sont des facteurs, mais pas plus généralement (c'est-à-dire lorsqu'il existe des prédicteurs quantitatifs). Soyez très prudent dans la formulation du modèle pour les tests de type III, sinon les hypothèses testées n'auront aucun sens.
Malheureusement, je ne peux pas répondre à votre deuxième ou troisième question car j'aimerais également le savoir.
Mettre à jour le commentaire de recomposition :
Il n'y a pas de tests Wald, LR et F pour les modèles mixtes généralisés. Anova
autorise "chisq"
et "F"
teste simplement les modèles mixtes (c'est-à-dire les "mer"
objets renvoyés par lmer
). La section d'utilisation indique:
## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3),
test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)
Mais comme les tests F pour les mer
objets sont calculés par pbkrtest
, ce qui, à ma connaissance, ne fonctionne que pour les modèles mixtes linéaires, les Anova
GLMM devraient toujours revenir chisq
(d'où vous ne voyez aucune différence).
Mise à jour concernant la question:
Ma réponse précédente a juste essayé de répondre à votre question principale, la différence entre Anova()
et drop1()
. Mais maintenant je comprends que vous voulez tester si certains effets fixes sont importants ou non. La FAQ de modélisation R-sig-mixed indique ce qui suit à ce sujet:
Tests de paramètres uniques
Du pire au meilleur:
- Wald Z-tests
- Pour les LMM équilibrés et imbriqués où df peut être calculé: tests t de Wald
- Test de rapport de vraisemblance, soit en configurant le modèle de sorte que le paramètre puisse être isolé / supprimé (via anova ou drop1), soit via le calcul des profils de vraisemblance
- MCMC ou intervalles de confiance bootstrap paramétriques
Tests d'effets (c'est-à-dire tester que plusieurs paramètres sont simultanément nuls)
Du pire au meilleur:
- Tests du chi carré de Wald (par exemple voiture :: Anova)
- Test de rapport de vraisemblance (via anova ou drop1)
- Pour les LMM équilibrés et imbriqués où df peut être calculé: tests F conditionnels
- Pour les LMM: tests F conditionnels avec correction df (par exemple Kenward-Roger dans le paquet pbkrtest)
- Comparaisons de bootstrap MCMC ou paramétriques ou non paramétriques (le bootstrap non paramétrique doit être mis en œuvre avec soin pour tenir compte des facteurs de regroupement)
(pas d'italique dans l'original)
Cela indique que votre approche d'utilisation car::Anova()
des GLMM n'est généralement pas recommandée, mais une approche utilisant MCMC ou bootstrap doit être utilisée. Je ne sais pas si pvals.fnc
du languageR
paquet woks avec GLMM, mais ça vaut le coup d'essayer.