LL = loglikelihood
Voici un résumé rapide de ce que vous voyez dans la sortie de résumé (glm.fit),
Déviance nulle = 2 (LL (modèle saturé) - LL (modèle nul)) sur df = df_Sat - df_Null
Déviance résiduelle = 2 (LL (modèle saturé) - LL (modèle proposé)) df = df_Sat - df_Proposed
Le modèle saturé est un modèle qui suppose que chaque point de données a ses propres paramètres (ce qui signifie que vous avez n paramètres à estimer).
Le modèle null suppose exactement "l'opposé", c'est-à-dire qu'il suppose un paramètre pour tous les points de données, ce qui signifie que vous n'évaluez qu'un paramètre.
Le modèle proposé suppose que vous pouvez expliquer vos points de données avec p paramètres + un terme d'interception, vous avez donc p + 1 paramètres.
Si votre Null Deviance est vraiment petit, cela signifie que le modèle Null explique assez bien les données. De même avec votre déviance résiduelle .
Que signifie vraiment petit? Si votre modèle est "bon", alors votre Deviance est approximativement égale à ^ ^ avec des degrés de liberté (df_sat - df_model).
Si vous voulez comparer votre modèle Null avec votre modèle proposé, alors vous pouvez regarder
(Déviance Null - Déviance Résiduelle) approx Chi ^ 2 avec df Proposé - df Null = (n- (p + 1)) - (n-1) = p
Les résultats que vous avez donnés directement de R? Ils semblent un peu bizarres, car vous devriez généralement voir que les degrés de liberté indiqués sur le Null sont toujours supérieurs aux degrés de liberté indiqués sur le résidu. En effet, encore une fois, déviation nulle df = saturée df - nulle df = n-1 déviance résiduelle df = saturée df - df proposée = n- (p + 1)
GLM
?