Je comprends que le test de Wald pour les coefficients de régression est basée sur la propriété suivante qui détient asymptotiquement (par exemple Wasserman (2006): Toutes les statistiques , pages 153, 214-215): oùβdésigne le coefficient de régression estimé,^soi(β)représente l'erreur type du coefficient de régression etβ0est la valeur d'intérêt (β0est généralement0 pour tester si le coefficient est significativement différent de 0). Letest detailleαWald est donc: rejeterH0lorsque| W| >zα/
Mais lorsque vous effectuez une régression linéaire avec lm
dans R, une valeur au lieu d'une valeur z est utilisée pour tester si les coefficients de régression diffèrent significativement de 0 (avec ). De plus, la sortie de in R donne parfois des valeurs z et parfois t comme statistiques de test. Apparemment, les valeurs z sont utilisées lorsque le paramètre de dispersion est supposé être connu et les valeurs t sont utilisées lorsque le paramètre de dispersion est estimé (voir ce lien ).summary.lm
glm
Quelqu'un pourrait-il expliquer pourquoi une distribution est parfois utilisée pour un test de Wald même si le rapport du coefficient et de son erreur standard est supposé être distribué comme normal normal?
Modifier après la réponse à la question
Ce message fournit également des informations utiles à la question.
lm
glm