The Book of Why de Judea Pearl: Pourquoi frappe-t-il les statistiques?


79

Je lis The Book of Why de Judea Pearl, et cela me passe à la peau 1 . Plus précisément, il me semble qu’il dénigre inconditionnellement les statistiques "classiques" en invoquant un argument de paille selon lequel les statistiques ne sont jamais, jamais en mesure d’enquêter sur les relations de cause à effet, qu’elles ne s’intéressent jamais aux relations de cause à effet et que les statistiques sont devenues un modèle. entreprise de réduction des données en aveugle ". La statistique devient un vilain mot dans son livre.

Par exemple:

Les statisticiens ont été extrêmement confus quant aux variables qui devraient et ne devraient pas être contrôlées. La pratique par défaut a donc été de contrôler tout ce que l'on peut mesurer. [...] C'est une procédure simple et pratique à suivre, mais elle est à la fois une source de gaspillage et d'erreur. Une des principales réalisations de la révolution causale a été de mettre fin à cette confusion.

Dans le même temps, les statisticiens sous-estiment fortement le contrôle au sens où ils répugnent à parler de causalité [...]

Cependant, les modèles causaux ont été dans les statistiques comme, pour toujours. Je veux dire, un modèle de régression peut être utilisé essentiellement un modèle causal, puisque nous supposons essentiellement qu'une variable est la cause et une autre est l'effet (la corrélation est donc une approche différente de la modélisation par régression) et nous testons si cette relation causale explique les modèles observés. .

Une autre citation:

Rien d’étonnant à ce que les statisticiens en particulier aient trouvé difficile de comprendre ce problème [Le problème de Monty Hall]. Comme le dit RA Fisher (1922), ils sont habitués à "la réduction des données" et à l'ignorance du processus de génération de données.

Cela me rappelle la réponse écrite par Andrew Gelman au célèbre dessin animé xkcd sur Bayésiens et fréquentistes: "Néanmoins, je pense que le dessin animé dans son ensemble est injuste dans la mesure où il compare un bayésien sensé à un statisticien fréquentiste qui suit aveuglément les conseils de manuels superficiels. . "

Le nombre de fausses déclarations de s-word qui, selon ce que je perçois, existe dans le livre de Judea Pearls, m'a amené à me demander si l'inférence causale (que je percevais jusqu'à présent comme un moyen utile et intéressant d'organiser et de tester une hypothèse scientifique 2 ) est sujette à caution.

Questions: pensez-vous que Judea Pearl déforme les statistiques, et si oui, pourquoi? Juste pour faire en sorte que l'inférence causale sonne plus grande qu'elle ne l'est? Pensez-vous que l'inférence causale est une révolution avec un grand R qui change vraiment toutes nos pensées?

Modifier:

Les questions ci-dessus sont mon problème principal, mais comme elles sont, il est vrai, d'avis, veuillez répondre à ces questions concrètes (1) quel est le sens de la "révolution de causalité"? (2) En quoi est-ce différent des statistiques "orthodoxes"?

1. Aussi parce qu'il est comme un gars modeste.
2. Je veux dire dans le sens scientifique, pas statistique.

EDIT : Andrew Gelman a écrit ce post sur le livre de Judea Pearls et je pense qu’il a fait un bien meilleur travail que moi pour expliquer mes problèmes avec ce livre. Voici deux citations:

À la page 66 du livre, Pearl et Mackenzie écrivent que les statistiques «sont devenues une entreprise de réduction de données sans modèle». Hey! De quoi parlez-vous ?? Je suis statisticien, je fais des statistiques depuis 30 ans, travaillant dans des domaines allant de la politique à la toxicologie. «Réduction des données modèle-aveugle»? C'est juste des conneries. Nous utilisons des modèles tout le temps.

Et un autre:

Regardez. Je connais le dilemme du pluraliste. D'une part, Pearl estime que ses méthodes sont meilleures que tout ce qui a précédé. Bien. Pour lui et pour beaucoup d'autres, ce sont les meilleurs outils pour étudier l'inférence causale. Dans le même temps, en tant que pluraliste ou étudiant en histoire scientifique, nous réalisons qu’il existe de nombreuses façons de préparer un gâteau. Il est difficile de faire preuve de respect envers des approches que vous ne travaillez pas vraiment pour vous, et à un moment donné, la seule façon de le faire est de prendre du recul et de réaliser que de vraies personnes utilisent ces méthodes pour résoudre de vrais problèmes. Par exemple, je pense que prendre des décisions en utilisant les valeurs-p est une idée terrible et logiquement incohérente qui a conduit à de nombreuses catastrophes scientifiques; dans le même temps, de nombreux scientifiques parviennent à utiliser les valeurs p comme outils d'apprentissage. Je le reconnais. De même, Je recommanderais à Pearl de reconnaître que l’appareil de statistiques, la modélisation par régression hiérarchique, les interactions, la poststratification, l’apprentissage automatique, etc., résolvent de vrais problèmes d’inférence causale. Nos méthodes, comme celle de Pearl, peuvent aussi nous gâcher - GIGO! - et peut-être que Pearl a raison de dire que nous ferions tous mieux de passer à son approche. Mais je ne pense pas que cela l’aide quand il donne des déclarations inexactes sur ce que nous faisons.


41
La régression linéaire n'est pas un modèle causal. La régression linéaire simple est identique à la corrélation par paire, la seule différence est la standardisation . Donc, si vous dites que la régression est causale, il devrait en aller de même pour la corrélation. La corrélation est-elle causale? Vous pouvez utiliser la régression pour prédire toute relation absurde entre toutes les variables arbitraires (avec de nombreux résultats "significatifs" par hasard).
Tim

8
Les divergences d'opinions sur l'approche de raisonnement sur la causalité en statistique qui présente le plus grand mérite entre Pearl, Rubin, Heckman et d'autres semblent s'être infectées, et je pense que le ton de Pearl se fait de plus en plus haussier. Ne laissez pas cela vous distraire de la véritable vision qu'il a à offrir. Lisez son livre précédent, Causality, il vous touchera moins.
CloseToC

7
@CloseToC J'ajouterais que Pearl, Rubin et Heckman travaillent tous dans le même cadre (c'est-à-dire des cadres logiquement équivalents, voir ici stats.stackexchange.com/questions/249767/… ), donc leurs différends sont d'une autre niveau des arguments tels que "la régression linéaire est un modèle causal".
Carlos Cinelli

9
Le livre m'a irrité moi-même. Il y a simplement de fausses déclarations statistiques (je ne peux pas en dire plus à présent, le livre avec mes notes en marge est chez nous), ce qui m'a fait me demander si seul le journaliste qui avait aidé Pearl à écrire le livre ou Pearl lui-même était un mauvais statisticien. (Inutile de dire que j'ai été très surpris de découvrir des erreurs aussi flagrantes dans un travail d'un scientifique aussi vénéré.) Ses papiers sont bien meilleurs, même si personne ne pourrait accuser Pearl de modestie ...
Richard Hardy

15
Je crains que ce fil ne soit déjà lié (a) à un livre spécifique écrit par une personne très intelligente (b) au personnage et au style de débat de cette personne intelligente (c) si un point de vue particulier est correct, exagéré ou autre.
Nick Cox

Réponses:


59

Je conviens tout à fait que le ton de Pearl est arrogant et que sa description des "statisticiens" est simpliste et monolithique. En outre, je ne trouve pas son écriture particulièrement claire.

Cependant, je pense qu'il a un point.

Le raisonnement de causalité ne faisait pas partie de ma formation officielle (MSc): le sujet le plus proche de moi était un cours au choix en conception expérimentale, c’est-à-dire que toute prétention de causalité exigeait que je maîtrise physiquement l’environnement. Le livre de Pearl, Causality, a été ma première exposition à une réfutation de cette idée. Évidemment, je ne peux pas parler au nom de tous les statisticiens et de tous les programmes, mais de mon point de vue, je souscris à l'observation de Pearl selon laquelle le raisonnement causal n'est pas une priorité de la statistique.

Il est vrai que les statisticiens contrôlent parfois plus de variables que ce qui est strictement nécessaire, mais cela conduit rarement à des erreurs (du moins selon mon expérience).

C’est aussi une conviction que j’avais après avoir obtenu mon diplôme de maîtrise en statistique en 2010.

Cependant, c'est profondément incorrect. Lorsque vous contrôlez un effet commun (appelé "collider" dans le livre), vous pouvez introduire un biais de sélection. Cette prise de conscience m'a beaucoup étonnée et m'a vraiment convaincu de l'utilité de représenter mes hypothèses causales sous forme de graphiques.

EDIT: On m'a demandé d'élaborer sur le biais de sélection. Ce sujet est assez subtil, je vous recommande vivement de parcourir le MOOC edX sur les diagrammes causaux , une très belle introduction aux graphiques comportant un chapitre consacré au biais de sélection.

Pour citer un exemple de jouet, pour paraphraser cet article cité dans le livre: Considérons les variables A = attractivité, B = beauté, C = compétence. Supposons que B et C n'aient pas de lien de causalité dans la population en général (c'est-à-dire que la beauté ne cause pas la compétence, la compétence ne cause pas la beauté et que la beauté et la compétence ne partagent pas une cause commune). Supposons également que B ou C soit suffisant pour être attractif, c'est-à-dire que A est un collisionneur. Le conditionnement sur A crée une association parasite entre B et C.

Un exemple plus grave est le "paradoxe du poids à la naissance", selon lequel le fait de fumer (S) pendant la grossesse semble diminuer la mortalité (M) du bébé si son poids est insuffisant (U). L'explication proposée est que les anomalies congénitales (D) sont également à l'origine de l'insuffisance pondérale à la naissance et contribuent également à la mortalité. Le diagramme de causalité correspondant est {S -> U, D -> U, U -> M, S -> M, D -> M} dans lequel U est un collisionneur; le conditionnement introduit la fausse association. L'intuition derrière cela est que si la mère fume, le faible poids à la naissance est moins susceptible d'être dû à un défaut.


8
+1 Pouvez-vous nous en dire un peu plus sur la manière dont cela introduit le biais de sélection? Un petit exemple concret sera peut-être plus clair pour la plupart des lecteurs.
amibe dit de réintégrer Monica

2
Merci pour l'édition. Ce sont des exemples très clairs.
amibe dit de réintégrer Monica

Donc, l’intuition pour le faible poids à la naissance des bébés fumeurs est correcte, non?
Malady

@Malandy: ce modèle est cohérent avec les données et a un sens intuitif. Je ne sais pas si c'est correct.
Michèle


71

Votre question même reflète ce que dit Pearl!

une régression linéaire simple est essentiellement un modèle causal

Non, une régression linéaire est un modèle statistique, pas un modèle causal. Supposons que sont des variables aléatoires avec une distribution normale multivariée. Vous pouvez ensuite estimer correctement les attentes linéaires , , , etc., à l'aide d'une régression linéaire, mais rien ici qui dit si aucune de ces quantités est causale.Y,X,ZE[YX]E[XY]E[YX,Z]E[ZY,X]

Une équation structurelle linéaire, en revanche, est un modèle causal. Mais la première étape consiste à comprendre la différence entre les hypothèses statistiques (contraintes sur la distribution de probabilité conjointe observée) et les hypothèses de causalité (contraintes sur le modèle causal).

Pensez-vous que Judea Pearl déforme les statistiques et si oui, pourquoi?

Non, je ne le pense pas, car nous voyons ces idées fausses quotidiennement. Bien sûr, Pearl est en train de généraliser, car certains statisticiens travaillent avec l'inférence causale (Don Rubin a été un pionnier dans la promotion des résultats potentiels ... et je suis aussi un statisticien!). Mais il a raison de dire que l’essentiel de l’éducation statistique traditionnelle évite la causalité, même pour définir formellement ce qu’est un effet causal.

Pour que ce soit bien clair, si nous demandions à un statisticien / économétrique ayant suivi une formation régulière de définir mathématiquement la valeur attendue de si nous intervenions sur , il écrirait probablement (voir un exemple ici) ! Mais c'est une quantité d'observation, ce n'est pas ainsi que vous définissez un effet causal! En d’autres termes, à l’heure actuelle, un étudiant qui suit seulement un cours de statistiques traditionnel n’a même pas la capacité de définir correctement cette quantité mathématiquement ( ou ) si vous n’êtes pas familier avec le théorie structurelle / contrefactuelle de la causalité !YXE[Y|X] E[Yx]E[Y|do(x)]

La citation que vous apportez du livre est également un excellent exemple. Vous ne trouverez pas dans les livres de statistiques traditionnels une définition correcte de ce qu'est un facteur de confusion, ni des indications sur le moment où vous devriez (ou ne devriez pas) vous adapter à une covariable dans les études d'observation. En général, vous voyez des «critères de corrélation», tels que «si la covariable est associée au traitement et au résultat, vous devez l’ajuster». L'un des exemples les plus remarquables de cette confusion se retrouve dans le paradoxe de Simpson: face à deux estimations de signes opposés, lequel faut-il utiliser, ajusté ou non? La réponse, bien sûr, dépend du modèle causal.

Et que veut dire Pearl quand il dit que cette question a été réglée? Dans le cas d'un ajustement simple par régression, il fait référence au critère de porte dérobée (voir plus de détails ici) . Et pour l’identification en général - au-delà du simple ajustement -, il signifie que nous disposons maintenant d’ algorithmes complets pour l’identification des effets de causalité pour tout DAG semi-markovien donné.

Une autre remarque vaut la peine d'être faite. Même dans les études expérimentales - où les statistiques traditionnelles ont sûrement fait beaucoup de travail important dans la conception des expériences! - en fin de compte, vous avez toujours besoin d'un modèle causal . Les expériences peuvent souffrir de manque de conformité, de perte de suivi, de biais de sélection ... De plus, la plupart du temps, vous ne voulez pas limiter les résultats de vos expériences à la population spécifique que vous avez analysée, vous souhaitez généraliser vos résultats. résultats expérimentaux à une population plus large / différente. Ici encore, on peut se demander: à quoi devez-vous vous adapter? Les données et les connaissances de fond que vous en avez-vous assez pour permettre une telle extrapolation? Tous ces concepts sont des concepts de causalité, vous avez donc besoin d’un langage qui puisse formellement exprimer les hypothèses de causalité et vérifier si elles sont suffisantes pour vous permettre de faire ce que vous voulez!

En résumé, ces idées fausses sont très répandues en statistique et en économétrie. Il existe plusieurs exemples ici dans Cross Validated, tels que:

Et beaucoup plus.

Pensez-vous que l'inférence causale est une révolution avec un grand R qui change vraiment toutes nos pensées?

Compte tenu de la situation actuelle dans de nombreuses sciences, de nos progrès et de la rapidité avec laquelle les choses changent, et de ce que nous pouvons encore faire, je dirais que c’est vraiment une révolution.

PS : Pearl a suggéré deux de ses posts sur le blog de causalité de UCLA qui pourraient intéresser cette discussion. Vous pouvez trouver les posts ici et ici .

PS 2 : Comme l'a mentionné January dans son nouveau montage, Andrew Gelman a publié une nouvelle publication sur son blog. En plus du débat sur le blog de Gelman, Pearl a également répondu sur Twitter (ci-dessous):

L'examen de #Bookofwhy par Gelman devrait présenter un intérêt, car il représente une attitude qui paralyse de vastes cercles de chercheurs en statistique. Ma réaction initiale est maintenant publiée sur https://t.co/mRyDcgQtEc .https://t.co/xUwR6eCGrZ ethttps://t.co/qwqV3oyGUy

- Judea Pearl (@yudapearl) 9 janvier 2019


4
Je vous remercie. Mais, eh bien, en écrivant de manière simpliste, je peux calculer E [X | Y] ainsi que E [Y | X], mais je peux écrire X ← Y ainsi que X → Y dans un DAG. D'une manière ou d'une autre, je dois commencer par une hypothèse scientifique ou un modèle. Mon hypothèse, mon modèle - mon choix. Le fait même que je puisse faire quelque chose ne signifie pas que je devrais le faire, le fait.
janvier

3
@January cela ne signifie pas que vous devriez, le but ici est seulement de pouvoir articuler avec précision ce que vous voulez estimer (l'estimation causale), d'articuler avec précision vos hypothèses de causalité (en clarifiant la distinction entre hypothèses de causalité et statistiques), en vérifiant les implications logiques de ces hypothèses causales et la capacité de comprendre si vos hypothèses causales + données sont suffisantes pour répondre à votre requête.
Carlos Cinelli

3
@January que vous avez une étude d' observation et que vous voulez estimer l'effet causal de sur . Comment décidez-vous des covariables à inclure dans votre régression? YXY
Carlos Cinelli

4
Je pense que oui: il ne semble pas tout à fait injuste de suggérer que votre statisticien moyen, bien que vraisemblablement très au fait des inférences causales d’expériences contrôlées, et ne risquant en aucun cas de confondre confusion avec causalité, pourrait être un peu fragile en ce qui concerne les inférences causales d’observation Les données. Je prends le dernier pour être le contexte de la citation (je n'ai pas lu le livre) & c'est quelque chose que certains lecteurs de ce post peuvent ne pas comprendre.
Scortchi - Réintégrer Monica

5
@January En bref, "ajustement pour les covariables" ne signifie pas nécessairement que vous avez éliminé le biais dans les estimations de l'effet de causalité à partir de ces variables.
Alexis

31

Je suis fan de l'écriture de Judée et j'ai lu Causality (amour) et Book of Why (j'aime).

Je ne pense pas que la Judée détruit les statistiques. Il est difficile d'entendre les critiques. Mais que pouvons-nous dire d'une personne ou d'un domaine qui ne prend pas de critiques? Ils tendent de la grandeur à la complaisance. Vous devez demander: la critique est-elle correcte, nécessaire, utile et propose-t-elle des alternatives? La réponse à toutes ces questions est un "oui" catégorique.

Correct? J'ai examiné et collaboré à quelques dizaines d'articles, principalement des analyses de données d'observation, et j'estime rarement qu'il existe une discussion suffisante sur la causalité. L’approche «ajustement» implique la sélection de variables parce qu’elles ont été sélectionnées à partir de la DD comme étant «utiles», «pertinentes», «importantes» ou autres. 1

Nécessaire? Les médias sont inondés d'affirmations apparemment contradictoires sur les effets sur la santé des expositions majeures. L'incohérence avec l'analyse des données a stagné l'évidence, ce qui nous laisse sans politique utile, procédures de soins de santé et recommandations pour une vie meilleure.

Utile? Le commentaire de Judea est suffisamment pertinent et spécifique pour donner une pause. Elle est directement pertinente pour toute analyse de données que tout statisticien ou expert en données pourrait rencontrer.

Propose-t-il des alternatives? Oui, Judea discute en fait de la possibilité d'utiliser des méthodes statistiques avancées et même de la façon dont elles se réduisent à des cadres statistiques connus (comme la modélisation par équation structurelle) et de leur lien avec des modèles de régression). Tout se résume à exiger un énoncé explicite de la connaissance du contenu qui a guidé l’approche de modélisation.

La Judée ne suggère pas simplement de défenestrer toutes les méthodes statistiques (par exemple, la régression). Il dit plutôt que nous devons adopter une théorie de causalité pour justifier les modèles.

1 la plainte est ici sur l'utilisation du langage convaincant et imprécis pour justifier ce qui est finalement une mauvaise approche de la modélisation. Il peut y avoir des chevauchements, de manière fortuite, mais Pearl explique clairement l’objet du diagramme de causalité (DAG) et la manière dont les variables peuvent être classées comme "facteurs de confusion".


3
Bonne réponse. Notez que n'étant pas un statisticien mais ayant servi d'interface entre la statistique et la biologie pendant de nombreuses années, toute critique des statisticiens n'est pour moi pas si difficile à entendre ;-) Cependant, pensez-vous vraiment que les "statistiques orthodoxes" ne peuvent pas gérer la causalité? du tout, comme Pearl explicitement dit?
janvier

4
@ Janvier au contraire . Je pense que le défaut des statisticiens d’accepter l’inférence causale dans leurs analyses est directement lié à leur incapacité à comprendre l’inférence fréquentiste. C'est le raisonnement contrefactuel qui manque.
AdamO

4
1 « Le « ajustement » approche consiste à sélectionner des variables , car ils ont été cueillis à la main du DD comme « utile » « pertinent » « important » ou autre non - sens sans incorporer effectivement des hypothèses formelles sur les relations de causalité spécifiques entre eux ( a la la utilisation formelle des DAG) . " Modifier ajouté. :)
Alexis

Les commentaires ne sont pas pour une discussion prolongée; cette conversation a été déplacée pour discuter .
Scortchi - Réintégrer Monica

23

Je n'ai pas lu ce livre, je ne peux donc que juger de la citation que vous donnez. Cependant, même sur cette base, je conviens avec vous que cela semble extrêmement injuste pour la profession de statistique. Je pense en fait que les statisticiens ont toujours fait un travail remarquable en soulignant la distinction entre associations statistiques (corrélation, etc.) et causalité, et en mettant en garde contre la confusion entre les deux. En effet, selon mon expérience, les statisticiens ont généralement été la principale force professionnelle luttant contre la confusion omniprésente entre cause et corrélation. Il est tout à fait faux (et virtuellement calomniant) de prétendre que les statisticiens "ne veulent absolument pas parler de causalité". Je peux voir pourquoi vous êtes ennuyé de lire du horseshit arrogant comme ça.

Je dirais que c'est assez commun pour les non-statisticiensqui utilisent des modèles statistiques pour comprendre mal la relation entre association statistique et causalité. Certains ont une bonne formation scientifique dans d'autres domaines, auquel cas ils sont peut-être également bien conscients du problème, mais il y a certainement des personnes qui utilisent des modèles statistiques et qui comprennent mal ces problèmes. Cela est vrai dans de nombreux domaines de la science appliquée où les praticiens ont une formation de base en statistique, mais ne l'apprennent pas à un niveau profond. Dans ces cas, ce sont souvent les statisticiens professionnels qui alertent les autres chercheurs sur les distinctions entre ces concepts et leur relation appropriée. Les statisticiens sont souvent les principaux concepteurs d’ECR et d’autres expériences impliquant des contrôles utilisés pour isoler la causalité. Ils sont souvent appelés à expliquer des protocoles tels que la randomisation, les placebos, et d'autres protocoles utilisés pour tenter de rompre les relations avec des variables confusionnelles potentielles. Il est vrai que les statisticiens contrôlent parfois plus de variables que ce qui est strictement nécessaire, mais cela conduit rarement à des erreurs (du moins selon mon expérience). Je pense que la plupart des statisticiens sont conscients de la différence entreLes variables confondantes et les variables de collisionneur lorsqu’elles effectuent une analyse de régression en vue de déductions causales, et même si elles ne construisent pas toujours des modèles parfaits, il est tout simplement ridicule de penser qu’elles évitent de prendre en compte la causalité.

Je pense que Judea Pearl a apporté une contribution très précieuse aux statistiques avec son travail sur la causalité, et je lui suis reconnaissant pour cette merveilleuse contribution. Il a construit et examiné des formalismes très utiles qui permettent d'isoler les relations de causalité, et son travail est devenu un élément essentiel d'une bonne éducation statistique. J'ai lu son livre Causalityalors que j'étais étudiant diplômé, il est sur mon étagère et sur les étagères de nombreux autres statisticiens. Une grande partie de ce formalisme fait écho à des choses que les statisticiens connaissaient intuitivement depuis avant de les formaliser dans un système algébrique, mais il est très précieux dans tous les cas et va au-delà de ce qui est évident. (Je pense en fait qu'à l'avenir, nous assisterons à une fusion de l'opération "do" avec l'algèbre des probabilités se produisant à un niveau axiomatique, et cela deviendra probablement le cœur de la théorie des probabilités. J'aimerais beaucoup que cela soit directement intégré à l'enseignement statistique. , afin que vous en appreniez sur les modèles de causalité et sur l'opération "do" lorsque vous en apprendrez sur les mesures de probabilité.)

Une dernière chose à garder à l’esprit est qu’il existe de nombreuses applications de la statistique dans lesquelles l’objectif est prédictif , lorsque le praticien ne cherche pas à en déduire une causalité. Ces types d’applications sont extrêmement répandus dans les statistiques et, dans ce cas, il est important de ne pas se limiter aux relations de cause à effet. Cela est vrai dans la plupart des applications de statistiques en finance, en ressources humaines, en modélisation des effectifs et dans de nombreux autres domaines. Il ne faut pas sous-estimer le nombre de contextes dans lesquels on ne peut ou ne doit pas chercher à contrôler les variables.


Mise à jour: je remarque que ma réponse ne correspond pas à celle fournie par Carlos . Peut-être ne sommes-nous pas d’accord sur ce qui constitue "un statisticien / économétrique ayant juste une formation régulière". Toute personne que je qualifierais de "statisticien" a généralement au moins une formation de niveau universitaire et possède habituellement une formation et une expérience professionnelle substantielles. (Par exemple, en Australie, pour devenir un "statisticien accrédité" auprès de notre organisme professionnel national, il faut au moins quatre ans d'expérience après un baccalauréat spécialisé ou six ans d'expérience après un baccalauréat régulier.) Dans tous les cas, un étudiant étudier les statistiques n'est pas un statisticien .

Je remarque que, comme preuve du prétendu manque de compréhension de la causalité par les statisticiens, la réponse de Carlos renvoie à plusieurs questions sur CV.SE qui traitent de la causalité dans la régression. Dans chacun de ces cas, la question est posée par une personne qui est évidemment novice (pas un statisticien) et les réponses données par Carlos et d'autres (qui reflètent l'explication correcte) sont des réponses hautement sollicitées. En effet, dans plusieurs cas, Carlos a donné un compte rendu détaillé de la causalité et ses réponses sont les plus votées. Cela prouve sûrement que les statisticiens comprennent bien la causalité .

D'autres affiches ont souligné que l'analyse de la causalité n'est souvent pas incluse dans le programme de statistiques. C’est vrai et c’est très dommage, mais la plupart des statisticiens professionnels ne sont pas des diplômés récents et ils ont beaucoup appris au-delà de ce qui est inclus dans un programme standard de masters. Là encore, il semble que le niveau de connaissance moyen des statisticiens soit plus clair que d’autres affiches.


12
Je suis un non-statisticien dont la formation statistique a été assurée par des non-statisticiens du même domaine. J'enseigne et je fais des recherches avec des non-statisticiens qui appliquent des statistiques. Je peux vous assurer que le principe selon lequel la corrélation, par exemple, n’est pas une cause est un mantra récurrent dans mon domaine. En effet, je ne rencontre pas de personnes qui ne voient pas qu'une corrélation entre les précipitations et le rendement en blé ne soit pas tout ce qu'il faut dire sur la relation entre elles et les processus sous-jacents. Selon mon expérience, les non-statisticiens réfléchissent eux aussi depuis longtemps.
Nick Cox

8
En tant qu'épidémiologiste, ce mantra m'agace de plus en plus. Comme @NickCox le dit, c'est quelque chose que même les non-scientifiques comprennent. Le problème que j'ai, c’est que tout le monde s’engage dans la voie de la "corrélation ne veut pas dire causalité!" chaque fois qu'une étude observationnelle (une étude cas-témoins, par exemple) est publiée. Oui, corrélation ne signifie pas causalité, mais les chercheurs en sont généralement tout à fait conscients et feront tout pour concevoir et analyser une étude de telle sorte qu'une interprétation causale soit au moins plausible.
COOLSerdash

5
@ Nick Cox: J'ai édité pour préciser que de nombreux non-statisticiens le comprennent bien. Je n’avais pas l’intention de disperser d’autres professions, je voulais seulement souligner que la question est extrêmement bien comprise des statisticiens.
Rétablir Monica

7
@ NickCox La contribution de Pearl à la causalité est bien plus que "la corrélation n'est pas une causalité". Je suis avec Carlos ici. Il y a suffisamment de choses à apprendre sur la causalité pour que ce soit un cours complet. Autant que je sache, la plupart des départements de statistique n'offrent pas un tel cours.
Neil G

12
@Ben: Pearl n'accuse pas les statisticiens de confusion entre corrélation et causalité. Il les accuse de ne surtout pas avoir de raisonnement causal. Je conviens avec vous que son ton est arrogant, mais je pense qu'il a raison.
Michèle

11

une régression linéaire simple est essentiellement un modèle causal

Voici un exemple que j'ai cité pour lequel un modèle de régression linéaire ne peut être causal. Supposons a priori qu'un médicament a été pris au moment 0 ( t = 0 ) et qu'il n'a aucun effet sur le taux de crises cardiaques à t = 1 . Les crises cardiaques à t = 1 affectent les crises cardiaques à t = 2 (c.-à-d. Que des lésions antérieures rendent le cœur plus vulnérable). La survie à t = 3 dépend uniquement du fait que les personnes ont ou non une crise cardiaque à t = 2 - une crise cardiaque à t = 1 aurait une incidence réaliste sur la survie à t = 3 , mais nous n’aurons pas de flèche, par souci de simplicité.

Voici la légende:

DAG légende

Voici le vrai graphe de causalité: biais de collisionneur

Supposons que nous ne sachions pas que les crises cardiaques à t = 1 sont indépendantes de la prise du médicament à t = 0 , nous construisons donc un modèle de régression linéaire simple pour estimer l'effet du médicament sur la crise cardiaque à t = 0 . Ici, notre prédicteur serait le médicament t = 0 et notre variable de résultat serait la crise cardiaque t = 1 . Les seules données dont nous disposons sont des personnes qui survivent à t = 3 , nous allons donc exécuter notre régression sur ces données.

Voici l'intervalle crédible bayésien à 95% pour le coefficient du médicament t = 0 : Intervalle de confiance de 95%, biais de collision

Une grande partie de la probabilité que nous pouvons voir est supérieure à 0, il semble donc y avoir un effet! Cependant, nous savons a priori qu'il y a 0 effet. Les mathématiques de la causalité telles que développées par Judea Pearl et d’autres font beaucoup plus facilement apparaître qu’il y aura un biais dans cet exemple (en raison du conditionnement d’un descendant d’un collisionneur). Le travail de Judea implique que dans cette situation, nous devrions utiliser l'ensemble de données complet (c.-à-d. Ne pas regarder les personnes qui ont survécu), ce qui éliminera les chemins biaisés:

pas de parti pris

Voici l'intervalle de crédibilité de 95% lorsque vous examinez l'ensemble de données (c'est-à-dire qu'il ne conditionne pas ceux qui ont survécu).

Intervalle de confiance de 95%, pas de biais.

Il est densément centré à 0, ce qui ne montre essentiellement aucune association.

Dans des exemples concrets, les choses pourraient ne pas être aussi simples. Il peut y avoir beaucoup plus de variables pouvant causer un biais systématique (confusion, biais de sélection, etc.). Ce qu’il faut ajuster dans les analyses a été mathématisé par Pearl; Les algorithmes peuvent suggérer la variable à ajuster, ou même nous dire quand l'ajustement n'est pas suffisant pour éliminer le biais systématique. Avec la mise en place de cette théorie formelle, nous n’avons pas besoin de perdre beaucoup de temps à débattre de ce qu’il faut ajuster ou non; nous pouvons rapidement tirer des conclusions quant à la pertinence ou non de nos résultats. Nous pouvons mieux concevoir nos expériences et analyser plus facilement les données d’observation.

Voici un cours disponible gratuitement en ligne sur les DAG Causal de Miguel Hernàn. Il contient de nombreuses études de cas réels dans lesquelles professeurs, scientifiques et statisticiens sont parvenus à des conclusions opposées sur la question à l’examen. Certains d'entre eux peuvent sembler être des paradoxes. Cependant, vous pouvez facilement les résoudre via les critères d-separation et backdoor de Judea Pearl .

Pour référence, voici le code du processus de génération de données et le code pour les intervalles crédibles présentés ci-dessus:

import numpy as np
import pandas as pd
import statsmodels as sm
import pymc3 as pm
from sklearn.linear_model import LinearRegression

%matplotlib inline

# notice that taking the drug is independent of heart attack at time 1.
# heart_attack_time_1 doesn't "listen" to take_drug_t_0
take_drug_t_0 = np.random.binomial(n=1, p=0.7, size=10000)
heart_attack_time_1 = np.random.binomial(n=1, p=0.4, size=10000)

proba_heart_attack_time_2 = []

# heart_attack_time_1 increases the probability of heart_attack_time_2. Let's say
# it's because it weakens the heart and makes it more susceptible to further
# injuries
# 
# Yet, take_drug_t_0 decreases the probability of heart attacks happening at
# time 2
for drug_t_0, heart_attack_t_1 in zip(take_drug_t_0, heart_attack_time_1):
    if drug_t_0 == 0 and heart_attack_t_1 == 0:
        proba_heart_attack_time_2.append(0.1)
    elif drug_t_0 == 1 and heart_attack_t_1 == 0:
        proba_heart_attack_time_2.append(0.1)
    elif drug_t_0 == 0 and heart_attack_t_1 == 1:
        proba_heart_attack_time_2.append(0.5)
    elif drug_t_0 == 1 and heart_attack_t_1 == 1:
        proba_heart_attack_time_2.append(0.05)

heart_attack_time_2 = np.random.binomial(
    n=2, p=proba_heart_attack_time_2, size=10000
)

# people who've had a heart attack at time 2 are more likely to die by time 3

proba_survive_t_3 = []
for heart_attack_t_2 in heart_attack_time_2:
    if heart_attack_t_2 == 0:
        proba_survive_t_3.append(0.95)
    else:
        proba_survive_t_3.append(0.6)

survive_t_3 = np.random.binomial(
    n=1, p=proba_survive_t_3, size=10000
)

df = pd.DataFrame(
    {
        'survive_t_3': survive_t_3,
        'take_drug_t_0': take_drug_t_0,
        'heart_attack_time_1': heart_attack_time_1,
        'heart_attack_time_2': heart_attack_time_2
    }
)

# we only have access to data of the people who survived
survive_t_3_data = df[
    df['survive_t_3'] == 1
]

survive_t_3_X = survive_t_3_data[['take_drug_t_0']]

lr = LinearRegression()
lr.fit(survive_t_3_X, survive_t_3_data['heart_attack_time_1'])
lr.coef_

with pm.Model() as collider_bias_model_normal:
    alpha = pm.Normal(name='alpha', mu=0, sd=1)
    take_drug_t_0 = pm.Normal(name='take_drug_t_0', mu=0, sd=1)
    summation = alpha + take_drug_t_0 * survive_t_3_data['take_drug_t_0']
    sigma = pm.Exponential('sigma', lam=1)           

    pm.Normal(
        name='observed', 
        mu=summation,
        sd=sigma,
        observed=survive_t_3_data['heart_attack_time_1']
    )

    collider_bias_normal_trace = pm.sample(2000, tune=1000)

pm.plot_posterior(collider_bias_normal_trace['take_drug_t_0'])

with pm.Model() as no_collider_bias_model_normal:
    alpha = pm.Normal(name='alpha', mu=0, sd=1)
    take_drug_t_0 = pm.Normal(name='take_drug_t_0', mu=0, sd=1)
    summation = alpha + take_drug_t_0 * df['take_drug_t_0']
    sigma = pm.Exponential('sigma', lam=1)           

    pm.Normal(
        name='observed', 
        mu=summation,
        sd=sigma,
        observed=df['heart_attack_time_1']
    )

    no_collider_bias_normal_trace = pm.sample(2000, tune=2000)

pm.plot_posterior(no_collider_bias_normal_trace['take_drug_t_0'])

4

Deux articles, le second est un classique, qui aident (je pense) à éclairer davantage les points soulevés par Judea et ce sujet plus généralement. Cela vient de quelqu'un qui a utilisé SEM (corrélation et régression) à plusieurs reprises et qui résonne avec ses critiques:

https://www.sciencedirect.com/science/article/pii/S0022103111001466

http://psycnet.apa.org/record/1973-20037-001

Essentiellement, les articles décrivent pourquoi les modèles corrélationnels (régression) ne peuvent normalement pas être considérés comme impliquant une inférence causale forte. Toute structure d'associations peut correspondre à une matrice de covariance donnée (c'est-à-dire une non spécification de la direction et / ou une relation entre les variables). D'où la nécessité d'éléments tels qu'un plan expérimental, des propositions contrefactuelles, etc. Cela s'applique même lorsqu'il existe une structure temporelle dans leurs données, où la cause présumée se produit dans le temps précédant l'effet présumé.


1

"... puisque nous supposons essentiellement qu'une variable est la cause et une autre est l'effet (la corrélation est donc une approche différente de la modélisation par régression) ..."

La modélisation par régression ne fait absolument PAS cette hypothèse.

"... et vérifier si cette relation de cause à effet explique les tendances observées."

Si vous supposez une relation de causalité et la validez par rapport à des observations, vous effectuez une modélisation SEM, ou ce que Pearl appellerait une modélisation SCM. Que vous souhaitiez ou non appeler cette partie du domaine des statistiques est discutable. Mais je pense que la plupart des gens n’appelleraient pas cela des statistiques classiques.

Plutôt que de laisser tomber les statistiques en général, je pense que Pearl ne fait que critiquer la réticence des statisticiens à traiter de la sémantique causale. Il considère cela comme un problème sérieux en raison de ce que Carl Sagan appelle le phénomène "entrer et sortir", dans lequel vous abandonnez une étude disant que "la consommation de viande est fortement associée à une augmentation de la libido, p <0,05", puis se retire, sachant les deux résultats vont être liés de manière causale dans l’esprit du public.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.