Je suis habitué à connaître les "degrés de liberté" comme , où vous avez le modèle linéaire \ mathbf {y} = \ mathbf {X} \ boldsymbol {\ beta} + \ boldsymbol {\ epsilon} avec \ mathbf {y } \ in \ mathbb {R} ^ n , \ mathbf {X} \ in M_ {n \ times p} (\ mathbb {R}) la matrice de conception de rang r , \ boldsymbol {\ beta} \ in \ mathbb { R} ^ p , \ boldsymbol {\ epsilon} \ in \ mathbb {R} ^ n avec \ boldsymbol {\ epsilon} \ sim \ mathcal {N} (\ mathbf {0}, \ sigma ^ 2 \ mathbf {I} _n) , \ sigma ^ 2> 0 .
D'après ce que je me souviens des statistiques élémentaires (c'est-à-dire des modèles pré-linéaires avec algèbre linéaire), les degrés de liberté pour les paires appariées test sont le nombre de différences moins . Cela impliquerait donc que ait le rang 1, peut-être. Est-ce correct? Sinon, pourquoi n-1 est -il le degré de liberté pour le test t des paires appariées?
Pour comprendre le contexte, supposons que j'ai un modèle à effets mixtes
Je voudrais fournir un intervalle de confiance pour .
J'ai déjà montré que est un estimateur non biaisé de , où , et est défini de manière similaire. L'estimation ponctuelle a été calculée.
J'ai déjà montré que
Maintenant, la dernière partie consiste à déterminer les degrés de liberté. Pour cette étape, j'essaie généralement de trouver la matrice de conception - qui a évidemment le rang 2 - mais j'ai la solution à ce problème, et elle dit que les degrés de liberté sont .
Dans le contexte de la recherche du rang d'une matrice de conception, pourquoi les degrés de liberté sont-ils ?
Modifié pour ajouter: La définition de la statistique de test peut être utile dans cette discussion. Supposons que j'ai un vecteur de paramètres . Dans ce cas, (sauf s'il me manque quelque chose). Nous effectuons essentiellement le test d'hypothèse où . Ensuite, la statistique de test est donnée par qui serait testé par rapport à une distribution centrale avecβ = [ μ 1 μ 2 ] c ' β = 0 c ' = [ 1 - 1 ] t = c ' β