Test post hoc dans une conception mixte 2x3 ANOVA utilisant SPSS?


8

J'ai deux groupes de 10 participants qui ont été évalués trois fois au cours d'une expérience. Pour tester les différences entre les groupes et entre les trois évaluations, j'ai exécuté une ANOVA de conception mixte 2x3 avec group(contrôle, expérimental), time(premier, deuxième, trois) et group x time. Les deux timeet grouprésulté significatif, en plus il y avait une interaction significative group x time.

Je ne sais pas très bien comment procéder pour vérifier plus avant les différences entre les trois temps des évaluations, également en ce qui concerne l'appartenance à un groupe. En fait, au début je ne spécifiais que dans les options de l'ANOVA pour comparer tous les effets principaux, en utilisant la correction de Bonferroni. Cependant, je me suis alors rendu compte que de cette façon, on comparait les différences de temps de l'échantillon total, sans distinction de groupe, ai-je raison?

Par conséquent, j'ai beaucoup cherché sur Internet pour trouver une solution possible, mais avec des résultats rares. Je n'ai trouvé que 2 cas similaires au mien, mais leurs solutions sont opposées!

  1. Dans un article, après la conception mixte, les auteurs ont exécuté 2 mesures répétées ANOVA en post-hoc, une pour chaque groupe de sujets. De cette façon, les deux groupes sont analysés séparément sans aucune correction, ai-je raison?
  2. Dans un guide sur Internet, ils disent d'ajouter manuellement dans la syntaxe SPSS COMPARE(time) ADJ(BONFERRONI), juste après /EMMEANS=TABLES(newgroup*time), tout en exécutant l'ANOVA mixte. De cette façon, les trois temps sont comparés séparément pour chaque groupe, avec correction de Bonferroni, ai-je raison?

Qu'est-ce que tu penses? Quelle serait la bonne façon de procéder?

anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 


Texte principal de Winer (1962) sur les statistiques. fournit des formules pour les termes d'erreurs à utiliser dans les comparaisons post hoc suivant plusieurs types d'ANOVA, y compris celui-ci.

Bonjour @StuartMcKelvie, pourriez-vous donner plus de détails? En l'état, votre réponse n'est guère utilisable par le PO ou les futurs visiteurs. (De plus, vous ne fournissez pas de référence pour Winer [1962], et comme il est si vieux, il pourrait ne pas être facile à trouver.)
Patrick Coulombe

J'ai trouvé ce chapitre gratuit d'IBM SPSS Statistics (18 et 19): Workbook psychtestingonline.com/PDFDownloader.aspx?pdf=3 Il s'agit exactement de votre cas
sviter

J'ai exactement le même problème. Avez-vous finalement décidé d'une méthode particulière? Je vous remercie.
Laoise Ní Chléirigh

Réponses:


2

Réponse modifiée pour mettre en œuvre un commentaire encourageant et constructif par @Ferdi

J'aimerais:

  1. fournir une réponse avec un script complet contenu
  2. mentionner que l'on peut également tester des contrastes personnalisés plus généraux en utilisant la commande / TEST
  3. soutiennent que cela est nécessaire dans certains cas (c.-à-d. que la combinaison EMMEANS COMPARE n'est pas suffisante)

Je suppose avoir une base de données avec des colonnes: depV, Group, F1, F2. J'implémente une ANOVA de conception mixte 2x2x2 où depV est la variable dépendante, F1 et F2 sont dans les facteurs sujets et le groupe est un facteur entre sujets. Je suppose en outre que le test F a révélé que l'interaction Groupe * F2 est significative. J'ai donc besoin d'utiliser des tests t post hoc pour comprendre ce qui motive l'interaction.

MIXED depV BY Group F1 F2 
  /FIXED=Group F1 F2 Group*F1 Group*F2 F1*F2 Group*F1*F2 |  SSTYPE(3) 
  /METHOD=REML 
  /RANDOM=INTERCEPT | SUBJECT(Subject) COVTYPE(VC) 
  /EMMEANS=TABLES(Group*F2) COMPARE(Group) ADJ(Bonferroni)
  /TEST(0) = 'depV(F2=1)-depV(F2=0) differs between groups' 
    Group*F2 1/4 -1/4 -1/4 1/4 
    Group*F1*F2 1/8 -1/8 1/8 -1/8 -1/8 1/8 -1/8 1/8 
  /TEST(0) = 'depV(Group1, F2=1)-depV(Group2, F2=1)' Group 1 -1
    Group*F1 1/2 1/2 -1/2 -1/2 
    Group*F2 1 0 -1 0  
    Group*F1*F2 1/2 0 1/2 0 -1/2 0 -1/2 0 .

En particulier, le deuxième test t correspond à celui effectué par la commande EMMEANS. La comparaison EMMEANS pourrait révéler par exemple que depV était plus grand dans le groupe 1 à la condition F2 = 1.

Cependant, l'interaction pourrait également être provoquée par autre chose, ce qui est vérifié par le premier test: la différence depV (F2 = 1) -depV (F2 = 0) diffère entre les groupes, et c'est un contraste que vous ne pouvez pas vérifier avec la commande EMMEANS (au moins je n'ai pas trouvé de moyen facile).

Maintenant, dans les modèles avec de nombreux facteurs, il est un peu difficile d'écrire la ligne / TEST, la séquence de 1/2, 1/4, etc., appelée matrice L. Typiquement, si vous obtenez le message d'erreur: "la matrice L n'est pas estimable", vous oubliez certains éléments. Un lien qui explique la réception est celui-ci: https://stats.idre.ucla.edu/spss/faq/how-can-i-test-contrasts-and-interaction-contrasts-in-a-mixed-model/


Quelle excellente réponse. Vous pouvez le rendre encore meilleur si vous 1. résumez le contenu de votre lien et 2. expliquez ce que vous faites statistiquement
Ferdi

1

Je ne connais pas particulièrement bien la syntaxe SPSS, mais, si je comprends bien votre situation, l'interaction significative signifie que, pour évaluer correctement la signification de vos principaux effets, vous devrez effectuer des analyses distinctes. Je pense que la meilleure façon de procéder est de faire des analyses de mesures répétées séparées pour chaque niveau de votre facteur de regroupement. Peut-être que quelqu'un d'autre peut mieux parler de la façon de gérer la correction des comparaisons multiples pendant l'analyse post-hoc, mais je suis presque sûr que vous devez toujours utiliser une correction. Vous pourriez essayer Tukey, comme une correction de comparaison multiple!


Merci pour votre réponse. Si j'ai bien compris, vous proposez la solution 1), pour effectuer deux ANOVA à mesures répétées distinctes, une pour chaque groupe, avec le temps comme variable indépendante des sujets (3 niveaux) et ensuite, si elle est significative, comparer les principaux effets avec la correction de Tukey (ou Bonferroni, je suppose, n'est-ce pas ok?). Ai-je bien compris?
Federico

Dans ce cas, en utilisant SPSS, j'ai sélectionné "Fichier de données / Split ..." et entré la variable de regroupement. Est-ce correct? De cette façon, j'ai trouvé une ANOVA légèrement significative (p = 0,044) pour le groupe témoin, mais les comparaisons de Bonferroni (cela ne me permet pas de faire Tukey) sont toutes non significatives ... Comment expliquer cela? Le résultat ANOVA est-il une erreur de saisie?
Federico

1

En bref. Il n'y a pas de convention mondialement acceptée pour ces situations. Certains utiliseront les corrections Bonferroni. Certains forceront le framework Tukey HSD à danser pour eux (par exemple Maxwell & Delaney). En revanche...

COMPARE(time) ADJ(BONFERRONI)", just after "/EMMEANS=TABLES(newgroup*time)

... semble utiliser la correction de Bonferroni. Cependant, cette approche est probablement conservatrice, en particulier face aux corrections de style Holm-Sidak. (SURTOUT si vous n'utilisez pas le MSW comme terme d'erreur pour vos comparaisons post-hoc).

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.