Comment contrôlez-vous un facteur / variable?


19

À ma connaissance, "Contrôle" peut avoir deux significations dans les statistiques.

  1. Groupe témoin: dans une expérience, aucun traitement n'est administré au membre du groupe témoin. Ex: Placebo vs Drug: vous donnez des médicaments à un groupe et non à l'autre (contrôle), qui est également appelé «expérience contrôlée».

  2. Contrôle d'une variable: Technique de séparation de l'effet d'une variable indépendante particulière. Certains des autres noms donnés à ces techniques sont, "comptabilisation", "maintien constant", "contrôle de", certaines variables. Par exemple: dans une étude sur l'écoute du football (comme ou non), vous souhaiterez peut-être supprimer l'effet du sexe car nous pensons que le sexe provoque un biais, c'est-à-dire que les hommes peuvent l'aimer plus que les femmes.

Donc, ma question concerne le point (2). Deux questions:

Comment contrôlez-vous / tenez-vous compte des variables en général? Quelles techniques sont utilisées? (En termes de régression, cadre ANOVA).

Dans l'exemple ci-dessus, le choix au hasard des hommes et des femmes constitue-t-il un contrôle? Autrement dit, le "hasard" est-il une des techniques de contrôle d' autres effets?


3
En termes de régression et d'ANOVA, le contrôle d'une variable signifie généralement que cette variable a été incluse dans le modèle.
Glen

Comme le dit Glen, l'inclure dans le modèle est la voie à suivre. Cependant, la randomisation est utilisée pour empêcher le biais d'effets non inclus dans le modèle. Une fois qu'une conception est générée, les gens s'équilibrent souvent pour s'assurer de choses comme le même nombre de chaque sexe dans chaque traitement. Le problème de s'appuyer exclusivement sur la randomisation et le contrepoids est qu'ils convertissent ce biais en variance et qu'il est donc plus difficile d'observer lesquels de vos facteurs sont actifs.
neverKnowsBest

Réponses:


16

Comme déjà dit, contrôler signifie généralement inclure une variable dans une régression (comme souligné par @EMS, cela ne garantit pas la réussite de cet objectif, il y relie ). Il existe déjà quelques questions et réponses très votées sur ce sujet, telles que:

Les réponses acceptées à ces questions sont toutes de très bons traitements de la question que vous posez dans un cadre d'observation (je dirais corrélationnel), plus de telles questions peuvent être trouvées ici .

Cependant, vous posez votre question spécifiquement dans un cadre expérimental ou ANOVA, quelques réflexions supplémentaires sur ce sujet peuvent être apportées.

Dans un cadre expérimental, vous contrôlez une variable en randomisant des individus (ou d'autres unités d'observation) sur les différentes conditions expérimentales. L'hypothèse sous-jacente est qu'en conséquence la seule différence entre les conditions est le traitement expérimental. Lorsque la randomisation est correcte (c'est-à-dire que chaque individu a la même chance d'être dans chaque condition), c'est une hypothèse raisonnable. De plus, seule la randomisation vous permet de tirer des inférences causales à partir de votre observation, car c'est le seul moyen de vous assurer qu'aucun autre facteur n'est responsable de vos résultats.

Cependant, il peut également être nécessaire de contrôler les variables dans un cadre expérimental, à savoir lorsqu'il existe un autre facteur connu qui affecte également cette variable dépendante. Augmenter la puissance statistique et peut alors être une bonne idée de contrôler cette variable. La procédure statistique habituelle utilisée à cet effet est l'analyse de la covariance (ANCOVA), qui, fondamentalement, ajoute également la variable au modèle.

Voici maintenant le nœud du problème: pour que l'ANCOVA soit raisonnable, il est absolument crucial que l'affectation aux groupes soit aléatoire et que la covariable pour laquelle elle est contrôlée ne soit pas corrélée avec la variable de regroupement.
Ceci est malheureusement souvent ignoré conduisant à des résultats ininterprétables. Miller et Chapman (2001) donnent une introduction vraiment lisible à ce problème précis (c'est-à-dire quand utiliser ANCOVA ou non ) :

Malgré de nombreux traitements techniques dans de nombreux sites, l'analyse de la covariance (ANCOVA) reste une approche largement utilisée pour traiter les différences substantielles entre les groupes sur les covariables potentielles, en particulier dans la recherche en psychopathologie. Les articles publiés parviennent à des conclusions non fondées et certains textes statistiques négligent la question. Le problème avec ANCOVA dans de tels cas est passé en revue. Dans de nombreux cas, il n'y a aucun moyen d'atteindre l'objectif superficiellement attrayant de «corriger» ou de «contrôler» les différences réelles de groupe sur une covariable potentielle. Dans l'espoir de limiter l'utilisation abusive de l'ANCOVA et de promouvoir une utilisation appropriée, une discussion non technique est proposée, soulignant une confusion substantielle rarement articulée dans les manuels et autres présentations générales, pour compléter les critiques mathématiques déjà disponibles.


Miller, GA et Chapman, JP (2001). Analyse des malentendus de la covariance. Journal of Abnormal Psychology , 110 (1), 40–48. doi: 10.1037 / 0021-843X.110.1.40


Juste pour souligner le point de cette question (qui est très souvent posée), il est bon de considérer que le simple fait d'inclure une variable dans un modèle n'est pas garanti de "contrôler" son effet, même sous des hypothèses extrêmement fortes sur la variable étant lié de façon monotone à la variable dépendante. Voir l'article qui est lié dans mon autre commentaire.
le

1
@EMS Bon point. J'ai ajouté une mise en garde et votre lien vers le début du texte. N'hésitez pas à modifier mon texte si vous pensez qu'il y a plus à ajouter.
Henrik

0

Pour contrôler une variable, on peut égaliser deux groupes sur un trait pertinent, puis comparer la différence sur le problème que vous recherchez. Je ne peux expliquer cela qu'avec un exemple, pas formellement, l'école B a des années dans le passé, donc là.

Si vous pouviez dire:

Le Brésil est plus riche que la Suisse car le Brésil a un revenu national de 3524 milliards de dollars et la Suisse seulement 551 milliards

vous auriez raison en termes absolus, mais toute personne de plus de 12 ans ayant une connaissance passagère du monde soupçonnerait également que quelque chose ne va pas dans cette déclaration.

Il serait préférable d'élever la population de la Suisse à celle du Brésil, puis de comparer à nouveau les revenus. Donc, si la population de la Suisse était de la taille des Brésiliens, leur revenu serait:

(210 millions / 8,5 millions) * 551 milliards de dollars = 13612 milliards de dollars

Cela les rend environ 4 fois plus riches que le Brésil avec 3524 milliards de dollars.

Et oui, vous pouvez également adopter l'approche par habitant, où vous comparez les revenus moyens. Mais l'approche ci-dessus, vous pouvez l'appliquer plusieurs fois.


1
Vous semblez décrire une certaine forme de normalisation plutôt que de «contrôle» au sens où l'entend la question.
whuber

En fait, je pense que ce sont les mêmes. Si vous ne le pensez pas, n'hésitez pas à expliquer la différence entre les deux
Heccate Newb

Je ne pense pas avoir besoin d'ajouter aux autres réponses qui apparaissent déjà dans ce fil.
whuber
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.