ANOVA à mesures répétées vs ANOVA factorielle avec facteur sujet: comprendre les «strates d'erreur» et le terme Error () dans aov


8

Envisager des mesures répétées d'ANOVA (RM-ANOVA) avec un facteur intra-sujet Aet plusieurs mesures par sujet pour chaque niveau de A.

Elle est étroitement liée à l'ANOVA bidirectionnelle avec deux facteurs: Aet subject. Ils utilisent la décomposition identique de la somme des carrés en quatre parties: A, subject, A⋅subjectet residual. Cependant, l'ANOVA bidirectionnelle teste l'effet de A en comparant SS de A avec le SS résiduel, tandis que RM-ANOVA teste l'effet de A en comparant SS de A avec l' interaction de sujet A SS.

Pourquoi la différence?

  1. Cette différence découle-t-elle automatiquement de la structure des mesures répétées des données, ou s'agit-il d'une convention?
  2. Cette différence entre ANOVA bidirectionnelle et RM-ANOVA correspond-elle au test de deux valeurs nulles différentes? Si oui, quels sont-ils exactement et pourquoi utiliserions-nous des valeurs nulles différentes dans ces deux cas?
  3. Le test ANOVA bidirectionnel peut être compris comme un test F entre deux modèles imbriqués: le modèle complet et le modèle sans A. La RM-ANOVA peut-elle être comprise de manière similaire?

(S'il n'y a qu'une seule mesure par sujet pour chaque niveau de A, alors la distinction disparaît car le sujet A et la variation résiduelle ne peuvent pas être démêlés: les mesures répétées unidirectionnelles ANOVA sont-elles équivalentes à une ANOVA bidirectionnelle? )


Manifestation

J'utiliserai les données de jouets d2générées dans http://dwoll.de/rexrepos/posts/anovaMixed.html . La même page Web montre la syntaxe correcte pour RM-ANOVA.

# Discarding between-subject factors and leaving only one within-subject factor
d = d2[d2$Xb1=='CG' & d2$Xb2 == 'f', c(1,4,6)]

(Voir la version reproductible ici sur pastebin .) Les données ressemblent à ça:

     id Xw1     Y
1    s1   A  28.6
2    s1   A  96.6
3    s1   A  64.8
4    s1   B 107.5
5    s1   B  77.3
6    s1   B 120.9
7    s1   C 141.2
8    s1   C 124.1
9    s1   C  88.0
10   s2   A  86.7
...

Voici l'ANOVA bidirectionnelle: summary(aov(Y ~ Xw1*id, d))

             Df Sum Sq Mean Sq F value   Pr(>F)    
Xw1           2  95274   47637  16.789 3.73e-07 ***
id           19  31359    1650   0.582    0.913    
Xw1:id       38  71151    1872   0.660    0.929    
Residuals   120 340490    2837                 

Voici RM-ANOVA: summary(aov(Y ~ Xw1 + Error(id/Xw1), d))

Error: id
          Df Sum Sq Mean Sq F value Pr(>F)
Residuals 19  31359    1650               

Error: id:Xw1
          Df Sum Sq Mean Sq F value   Pr(>F)    
Xw1        2  95274   47637   25.44 9.73e-08 ***
Residuals 38  71151    1872                     

Error: Within
           Df Sum Sq Mean Sq F value Pr(>F)
Residuals 120 340490    2837            

Notez la décomposition SS identique, mais les tests ANOVA bidirectionnels Xw1contre le résiduel, tandis que les tests RM-ANOVA Xw1contre l' Xw1:idinteraction.

Pourquoi?

Cette question est liée à la façon d'écrire le terme d'erreur dans les mesures répétées ANOVA dans R: Erreur (sujet) vs Erreur (sujet / heure) . Si nous essayons d'utiliser Error(id)au lieu de Error(id/Xw1)dans l'exemple ci-dessus, alors nous Xw1serons testés contre l' Xw1:idinteraction regroupée avec la variation résiduelle.

(Le même problème se pose dans la RM-ANOVA factorielle avec plusieurs facteurs intra-sujets, où chaque facteur ou interaction est testé par rapport à son propre "terme d'erreur" aka "strate d'erreur". Ces strates d'erreur sont toujours données par l'interaction correspondante avec le bloc / variable intrigue / sujet id.)


Sujet pertinent: r.789695.n4.nabble.com/AOV-and-Error-td865845.html - mais pas de vraie réponse.
amoeba

D'accord, j'ai relu l'article de JakeWestfall jakewestfall.org/publications/JWK.pdf et j'ai réalisé que tout le problème se résume à l' subjecteffet de traitement RM-ANOVA (et toutes ses interactions!) Comme aléatoire, tandis que l'ANOVA à 2 voies le traite comme fixé. Je dois y réfléchir davantage pour comprendre tous les détails.
amoeba

Pour le point (2), l'hypothèse nulle est exactement ce qui fait que le rapport des carrés moyens attendus des deux sommes correspondantes de carrés est égal à un et le paramètre de non-centralité correspondant aux deux sommes de carrés est égal à 0. Ceci pour que le valeur pour lepFla statistique est calculable. Pour l'instant, je ne comprends pas pourquoi nous pouvons atteindre ces 3 objectifs dans les valeurs nulles que nous avons l'habitude de voir dans ANOVA, mais il semble que nous ne devons nous concentrer sur le rapport de l'EMS que lorsque les effets sont aléatoires. et le paramètre de non-centralité du numérateur SS lorsque l'effet (numérateur) est fixe.
user795305

Ces commentaires concernent le théorème de Cochran ( en.wikipedia.org/wiki/Cochran%27s_theorem ). (Le livre que j'utilise comme référence ANOVA appelle ce "Lemme de Bhat", soit dit en passant.)
user795305

Question similaire ici, Comprendre l'intrigue partagée , mais aucune réponse formidable là non plus
Aaron a quitté Stack Overflow le

Réponses:


2

... ANOVA bidirectionnelle teste l'effet de A en comparant SS de A avec le SS résiduel, tandis que RM-ANOVA teste l'effet de A en comparant SS de A avec l'interaction A⋅subject SS.

1) Cette différence découle-t-elle automatiquement de la structure des mesures répétées des données, ou s'agit-il d'une convention?

Il découle de la structure des mesures répétées des données. Le principe de base de l'analyse de la variance est que nous comparons la variation entre les niveaux d'un traitement à la variation entre les unités qui ont reçu ce traitement. Ce qui rend le cas des mesures répétées quelque peu délicat, c'est l'estimation de cette deuxième variation.

Dans ce cas le plus simple, ce qui nous intéresse, ce sont les différences entre les niveaux de A. Alors, sur combien d'unités avons-nous mesuré cette différence? C'est le nombre de sujets, pas le nombre d'observations. Autrement dit, chaque sujet nous donne une information indépendante supplémentaire sur la différence, pas chaque observation. L'ajout de mesures plus répétées augmente la précision de nos informations sur chaque sujet, mais ne nous donne pas plus de sujets.

Ce que le RM-Anova fait en utilisant l'interaction A-sujet comme terme d'erreur est d'utiliser correctement la variation des différences entre les niveaux de A entre les sujets comme variation pour tester l'effet du niveau A. L'utilisation de l'erreur d'observation utilise à la place la variation des mesures répétées sur chaque individu, ce qui n'est pas correct.

Prenons un cas où vous prenez de plus en plus de données sur seulement quelques individus. Si vous utilisez l'erreur du niveau d'observation, vous finirez par atteindre une signification statistique, même si vous n'avez que quelques individus. Vous avez besoin de plus d'individus, pas de plus de données sur eux, pour vraiment augmenter la puissance.

2) Cette différence entre ANOVA bidirectionnelle et RM-ANOVA correspond-elle au test de deux valeurs nulles différentes? Si oui, quels sont-ils exactement et pourquoi utiliserions-nous des valeurs nulles différentes dans ces deux cas?

Non, même hypothèse nulle. Ce qui est différent, c'est la façon dont nous estimons la statistique de test et sa distribution nulle.

3) Le test ANOVA bidirectionnel peut être compris comme un test F entre deux modèles imbriqués: le modèle complet et le modèle sans A. La RM-ANOVA peut-elle être comprise de manière similaire?

Oui, mais peut-être pas de la manière que vous espérez. Comme vous le voyez dans la sortie de aov, une façon de penser à ces types de modèles est qu'ils sont vraiment plusieurs modèles en un, avec un modèle pour chaque niveau.

On peut adapter les modèles pour les niveaux supérieurs individuellement en faisant la moyenne des données sur les niveaux inférieurs. Autrement dit, un test RM-Anova pour A est équivalent à un Anova standard sur les données moyennes. Ensuite, on peut comparer les modèles de la manière habituelle.

> library(plyr)
> d2 <- ddply(d, ~Xw1 + id, summarize, Y=mean(Y))
> a1 <- aov(Y ~ id, d2)
> a2 <- aov(Y ~ Xw1+id, d2)
> anova(a1, a2)
Analysis of Variance Table

Model 1: Y ~ id
Model 2: Y ~ Xw1 + id
  Res.Df   RSS Df Sum of Sq      F    Pr(>F)    
1     40 55475                                  
2     38 23717  2     31758 25.442 9.734e-08 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Alternativement, on peut ajuster le plein aovavec toutes les données mais sans le terme d'intérêt, puis comparer l'ajustement avec le plein aovavec le terme d'intérêt, mais pour comparer les modèles, vous devez choisir le niveau du modèle que vous avez changé (ici le id:Xw1niveau) et ensuite vous pouvez comparer ces deux modèles.

> summary(aov(Y ~ 1 + Error(id/Xw1), d))

Error: id
          Df Sum Sq Mean Sq F value Pr(>F)
Residuals 19  31359    1650               

Error: id:Xw1
          Df Sum Sq Mean Sq F value Pr(>F)
Residuals 40 166426    4161               

Error: Within
           Df Sum Sq Mean Sq F value Pr(>F)
Residuals 120 340490    2837               
> (F <- ((166426 - 71151)/2) / (71151/38))
[1] 25.44202
> pf(F, 2, 38, lower=FALSE)
[1] 9.732778e-08

(+1) Merci d'avoir pris le temps d'écrire ceci! C'est une perspective intéressante qui nous permet d'acquérir une certaine intuition sur la raison pour laquelle il est naturel de comparer avec la somme d'interaction des carrés dans le cas des mesures répétées. Cependant, il semble échouer à élucider les détails du test, car vous affirmez à tort (selon les arguments de ma réponse) que les hypothèses nulles sont les mêmes. Le dernier paragraphe de ma réponse écrit ce que j'ai dérivé des hypothèses nulles. Faites-moi savoir si vous pensez que je me trompe!
user795305

Je pense que nous devons faire la distinction entre ce qui est testé et ce qui est une hypothèse de l'hypothèse nulle (ce qui fait partie de ce que je veux dire quand je dis que la distribution nulle est différente). Le σ ^ 2_ {id ∗ Xw1} = 0 que vous avez n'est pas réellement testé, vous pouvez avoir des données où ce n'est pas vrai du tout mais si X_ {w1j} est exactement égal à 0 pour tout j alors vous ne rejetterez pas le nul.
Aaron a quitté Stack Overflow le

1
La question est, que concluez-vous lorsque vous rejetez le nul? Dans les deux cas, vous concluez que vous avez des preuves que les moyennes du groupe sont différentes. Vous ne concluez pas que les moyennes du groupe sont différentes OU la variance est grande. Autrement dit, l'hypothèse nulle dans les deux cas est simplement que toutes les moyennes de groupe sont les mêmes. Ce qui change, c'est la statistique de test que nous utilisons pour tester cela et la distribution de cette statistique de test.
Aaron a quitté Stack Overflow le

1
Je me suis rendu compte que je suis confus par l'ensemble de votre raisonnement. Une hypothèse nulle n'est pas dérivée, elle est simplement énoncée a priori, puis on choisit une statistique de test et détermine sa distribution sous la valeur nulle. Dans ces deux cas, l'hypothèse nulle est simplement que toutes les moyennes de groupe sont égales.
Aaron a quitté Stack Overflow le

1
@Aaron Dans le chat, amoeba a gentiment souligné que je semble avoir mal compris votre réponse à la question 2. Je vous ai interprété comme disant que dans le cas des mesures répétées, les hypothèses nulles correspondant aux statistiques de test avec MSE en denom ou MS_inter dans le denom sont identiques. (En effet, mon dernier paragraphe que je vous ai signalé concerne la mise en place de mesures répétées.) Cependant, il semble maintenant que ce n'était pas ce que vous disiez. Mon erreur! amoeba et moi avons supprimé nos commentaires pour éviter que cela ne trompe les futurs lecteurs.
user795305

2

Cette note dépend des résultats contenus dans Moser Linear Models: A Mean Model Approach . Je vais citer quelques résultats de ce livre dans ce qui suit. Quand j'ai vu votre question, j'ai commencé à parcourir le livre: cette note est juste la façon dont mes pensées ont été organisées après.

Laisser yNn(μ,Σ) être la réponse, avec μ contenant les effets fixes et Σ contenant les effets aléatoires.

Prendre yTAiyêtre la somme des carrés correspondant à chaque terme (covariables et interactions) dans le modèle. Notez que ces sommes de carrés sont invariantes selon que les termes sont fixes ou aléatoires. Supposons que chacunAi est symétrique et idempotent, ce qui sera vrai dans la plupart des modèles d'intérêt.

Quand il tient ça

I=iAi,
ce qui revient à la somme des carrés correspondant à une décomposition en sous-espaces orthogonaux puisque nous avons supposé la Ai sont des projecteurs, et
Σ=iciAi,
par le théorème de Cochran (lemme 3.4.1),
yTAiyciχdi2(μTAiμ/ci),
pour di=tr(Ai), et yTAjy est indépendant de yTAky pour jk.

Le terme

F~=yTAjy/djyTAky/dkcjχdj2(μTAjμ/cj)/djckχdk2(μTAkμ/ck)/dk
est en effet un (central) F statistique si et seulement si
(1)cjck=1,(2)μTAjμ=0,(3)μTAkμ=0, and 
Lorsque ces trois conditions sont remplies, nous pouvons calculer p-valeurs correspondant à la statistique F~. Ces termes aident simplement à la calculabilité depuis lacidépendent des composantes de la variance et les paramètres de non-centralité dépendent de la moyenne μ. La deuxième condition garantit queF~ aura (au moins) un non central FDistribution. Sous la deuxième condition, la troisième condition donne queF~ a un central F Distribution.

Les carrés moyens attendus (EMS) correspondant à la ith somme des carrés yTAiy est

EMSi:=1tr(Ai)E[yTAiy]=tr(AiΣ)+μTAiμtr(Ai)=ci+μTAiμtr(Ai),
tr(AiΣ)=citr(Ai)en raison de cor 3.1.2. Le rapport
EMSjEMSk=cj+μTAjμtr(Aj)ck+μTAkμtr(Ak)=1
si conditions (1), (2), et (3)tenir. C’est pourquoi les gens inspectent leEMS lors de la détermination des sommes de carrés à diviser pour former un F statistique pour tester une hypothèse nulle particulière.

Nous utilisons des conditions (1),(2), et (3)pour spécifier l'hypothèse nulle. D'après mon expérience, lorsque le terme (correspondant àj) que nous sommes intéressés à tester est aléatoire, nous faisons l'hypothèse nulle être cj/ck=1, et, quand c'est fixe, on fait l'hypothèse nulle yTAjy=0. En particulier, ceux-ci nous permettent de choisirk de sorte que le reste des conditions (1),(2) et (3)sont satisfait. Un tel choix dekn'est pas toujours possible, ce qui entraîne des difficultés de type Behrens-Fisher .

Cela n'explique rien de particulièrement lié au problème à résoudre, mais cela revient à calculer μ et Σ. J'espère que cela est considéré comme une manière utile de réfléchir au problème. Notez que l'exemple 4.4.1 détermine quelles sont toutes les quantités ci-dessus dans l'exemple ANOVA bidirectionnel.

La différence est due à la structure du problème et non à la convention. Ces différentes approches (mesure bidirectionnelle vs mesure répétée) changentμ et Σ, qui change le SME, qui change qui k nous choisissons de construire le test.


Prenons le modèle

yijk=μ0+idi+Xw1j+idXw1ij+R(idXw1)k(ij),
i dénote le niveau de id, etc. Ici k indique laquelle des 3 répétitions est envisagée.

Nous introduisons maintenant une notation vectorielle utile: écrire y=(y111,y112,y113,y121,y20,3,3). Puisque ces données sont équilibrées, nous pouvons faire de la notation du produit kronecker . (En passant, on m'a dit que Charlie Van Loan a appelé le produit kronecker "l'opération des années 2000!") DéfinirJ¯Rm×m être la matrice avec toutes les entrées égales à 1m et C=IJ¯être la matrice de centrage. (La matrice de centrage est ainsi nommée car, par exemple,Cx22=i(xix¯)2 pour un vecteur x.)

Avec cette notation de produit kronecker sous ceinture, nous pouvons trouver les matrices Aimentionné ci-dessus. La somme des carrés correspondant àμ0 est

SS(μ0)=n(y¯)2=(J¯J¯J¯)y22=yT(J¯J¯J¯)y,
où le premier composant J¯R20×20, le second est en R3×3, et le troisième est en R3×3. De manière générale, les matrices de ces composants seront toujours de cette taille. De plus, la somme des carrés due àid est
SS(id)=ijk(y¯iy¯)2=(CJ¯J¯)y22=yT(CJ¯J¯)y.
Remarquerez que SS(id) mesure en effet la variation entre les niveaux de id. De même, les autres matrices sontAXw1=J¯CJ¯, AidXw1=CCJ¯, et AR()=IIC.

Il est démontré que cela est cohérent avec l' aovexécution de code pour donner, par exemple, la somme résiduelle des carrésSS(R(idXw1))=yTAR()y:

mY <- c()
for(j in 1:(nrow(d)/3)) {
  mY <- c(mY, rep(mean(d$Y[3*(j-1)+(1:3)]), 3))
}
sum((d$Y - mY)^2) #this is the residual sum of squares

À ce stade, nous devons faire des choix de modélisation. En particulier, nous devons décider siidest un effet aléatoire. Supposons d'abord qu'il ne s'agit pas d'un effet aléatoire, de sorte que tous les effets en dehors de la réplication soient fixes. alors

E[yijk]=μij=μ0+idi+Xw1jk+idXw1ij
et R(idXw1)k(ij)iidN(0,σ2). Notez qu'il n'y a pas de dépendance entre des observations distinctes. En notation vectorielle, on peut écrire
yN(μ,Σ)
pour μ=E[y]=(μ11,μ12,,μ20,3)13 et Σ=σ2(III).

Constatant que la somme de tous 5 du Adéfini ci-dessus est l'identité, nous savons par le théorème de Cochran que, entre autres,

SS(Xw1)=yTAXw1yσ2χ(19)(1)(1)2(μTAXw1μ/σ2)
et
SS(R(idXw1))=yTAR()yσ2χ(20)(3)(2)2(μTAR()μ/σ2)
et ces sommes de carrés sont indépendantes.

Maintenant, conformément à ce que nous avons discuté ci-dessus, nous voulons des conditions (1),(2), et (3)tenir. Notez cette condition(1) détient (car il n'y a pas d'autres composants de variance pour compliquer les choses.) Ce qui est vraiment cool de remarquer maintenant, c'est que μTAR()μ=0, depuis μ est constante le long de ce troisième "composant" qui est centré par AR(). Cela signifie que(3)est derrière nous. Par conséquent, nous n'avons qu'à nous inquiéter de l'état(2): si nous supposons (comme une hypothèse nulle) alors nous supposons que 0=μTAXw1μ=ijk(μijμ¯i)2, qui est identique à μij=μ¯i pour tous i,j, qui est identique à Xw1j=0 et idXw1ij=0 pour tous i,j (puisque le niveau moyen est dans les autres termes.)

En résumé, l'hypothèse nulle peut simplement être considérée comme testant si un paramètre de non-centralité est nul, ce qui équivaut à des effets concernant la covariable étant nulle. Le cas des mesures répétées suit un raisonnement similaire, où nous faisons plutôt le choix de modélisation que leidl'effet est aléatoire. Là, condition(1) deviendra l'hypothèse nulle.

Lié à la Rcommande, comme vous le mentionnez dans les commentaires de l'article d'origine, ce terme d'erreur spécifie simplement quels termes doivent être considérés comme des effets aléatoires. (Notez que tous les termes qui doivent être inclus dans le modèle doivent être clairement entrés ou entrés à l'intérieur du Error()terme. C'est pourquoi il y a une différence entre id/Xw1 = id + id:Xw1et idétant dans le Errorterme. Les termes non inclus sont regroupés avec l'erreur dans le sens oùAR()+AidXw1 est rebaptisé AR().)


Voici les détails explicites liés au cas des mesures répétées où les termes liés à id (qui sont id et idXw1) sont aléatoires. Nous verrons que c'est le cas le plus intéressant.

Là, nous avons la même somme de matrices carrées (car elles ne dépendent pas du fait qu'un facteur soit fixe ou aléatoire.) La matrice de covariance y est

Σ=(a)σid2(IJJ)+σidXw12(ICJ)+σR()2(III)=σid2(3)(3)(Aμ0+Aid)+σidXw12(3)(AXw1+AidXw1)+σR()2(Aμ0+Aid+AXw1+AidXw1+AR())=((3)(3)σid2+σR()2)Aμ0+((3)(3)σid2+σR()2)Aid+((3)σidXw12+σR()2)AXw1+((3)σidXw12+σR()2)AidXw1+σR()2AR(),
Jest la matrice de tous. La première et la dernière sommation à droite de l'égalité (a) offrent des explications intuitives: la première sommation montre qu'il existe une source supplémentaire de corrélation entre les observations ayant la mêmeid, et la troisième sommation montre, comme dans l'exemple bidirectionnel, la source de variation de base. Ce deuxième résumé est moins intuitif, mais parmi les observations avec le même \ mathrm {id}, il peut être vu comme une variation croissante entre les observations avec le mêmeXw1 tout en diminuant la variation entre les observations avec différentes Xw1, en raison de la forme de ICJ.

De plus, puisque tous les termes liés à id sont aléatoires, la moyenne est simplement due à Xw1, pour que E[yijk]=μj=μ0+Xw1j, ou μ=1(μ1,μ2,μ3)1.

Notez que, lié à la condition (1): on a

cXw1cidXw1=(3)σidXw12+σR()2(3)σidXw12+σR()2=1,
tandis que
cXw1cR()=(3)σidXw12+σR()2σR()21.
En outre, lié à la condition (3) tous les deux μTAXw1idμ=0 et μTAR()μ=0. Aussi, lié à la condition(2): on voit ça
μTAXw1μ=AXw1μ22=(J¯CJ¯)(1(μ1,μ2μ3)1)22=(20)(3)C(μ1,μ2μ3)22=(20)(3)j(Xw1j)2.

Par conséquent, si la somme des carrés au dénominateur était le résidu R(idXw1) comme avant, il y aurait les deux conditions (1) et (2)dans l'hypothèse nulle --- puisque ce sont les deux conditions qui ne sont pas remplies sans hypothèses. Cependant, si nous devions utiliser la somme des carrés du dénominateur comme interaction, puisque la condition(1) est déjà satisfaite, l'hypothèse nulle ne serait que condition (2). Ainsi, comme vous le mentionnez dans votre question, ces différents dénominateurs équivalent simplement à des hypothèses nulles différentes.

Cette technique d'analyse que nous utilisons permet au choix de l'hypothèse nulle testée d'être transparente. En effet, nous pouvons voir cela en écrivant plus explicitement les conditions mentionnées dans le paragraphe précédent. L'utilisation du dénominateur comme somme résiduelle des carrés nous oblige à testerXw1j=0 pour tous j et σidXw12=0, tout en utilisant le dénominateur comme somme d'interaction des carrés nous permet de tester simplement Xw1j=0 pour tous j.


+1. Wow, merci beaucoup. Il me faudra du temps pour digérer cette réponse. Je ne connais pas très bien la théorie mathématique des tests d'hypothèses dans les modèles linéaires, c'est donc un peu difficile à comprendre. Je reviendrai peut-être avec vous dans les jours qui viennent. Je m'attendais davantage à obtenir une réponse dans le style de l'exemple aux pages 2-3 de cet article jakewestfall.org/publications/JWK.pdf , où les carrés moyens attendus sont calculés dans plusieurs situations fixes vs aléatoires et tout suit De là. Il semble que vous parliez de la même chose, mais de façon plus formelle.
amoeba

J'ai inclus un exemple. (Ils peuvent être assez longs à écrire!) Je pense qu'il faut un certain temps pour se familiariser avec les manipulations des produits kronecker, mais après cela, cela est plus facilement compréhensible. Aussi, je continue de trouver des fautes de frappe dans la réponse. Faites-le moi savoir si vous pensez qu'il y en a!
user795305

1
Ouf, ça fait beaucoup de maths! La question me semble beaucoup plus conceptuelle, je vais voir si je peux trouver le temps d'ajouter une réponse en mots.
Aaron a quitté Stack Overflow le

1
@Aaron depuis que l'amibe a demandé une réponse complète et sur l'extension de ce problème à d'autres scénarios, j'ai pensé qu'il serait utile de fournir une explication complète de Ftests en ANOVA. La réponse est devenue assez lourde sur le plan de la notation simplement parce qu'il y a beaucoup de calculs impliqués lorsque vous le faites de manière entièrement généralisable. (Bien que, pour être clair, le plus de mathématiques impliquées soit l'évaluation de la norme d'un vecteur projeté.) Je serais très intéressé de voir une réponse plus conceptuelle qui explique pleinement les subtilités que j'ai introduites (plus qu'un peu) pour expliquer la notation . Veuillez poster si vous avez le temps!
user795305
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.