Qu'est-ce que l '«attente de probabilité maximale ciblée»?


15

J'essaie de comprendre certains articles de Mark van der Laan. Il est un statisticien théorique à Berkeley travaillant sur des problèmes qui se chevauchent de manière significative avec l'apprentissage automatique. Un problème pour moi (en plus des mathématiques approfondies) est qu'il finit souvent par décrire des approches d'apprentissage machine familières en utilisant une terminologie complètement différente. Un de ses principaux concepts est "Attente maximale de vraisemblance ciblée".

TMLE est utilisé pour analyser les données d'observation censurées d'une expérience non contrôlée d'une manière qui permet une estimation de l'effet même en présence de facteurs de confusion. Je soupçonne fortement que plusieurs des mêmes concepts existent sous d'autres noms dans d'autres domaines, mais je ne le comprends pas encore assez bien pour le faire correspondre directement à quoi que ce soit.

Une tentative de combler le fossé avec «l'analyse des données informatiques» est ici:

Entrer dans l'ère de la science des données: apprentissage ciblé et intégration des statistiques et de l'analyse des données informatiques

Et une introduction pour les statisticiens est ici:

Inférence causale basée sur le maximum de vraisemblance ciblé: Partie I

A partir du second:

Dans cet article, nous développons un estimateur du maximum de vraisemblance ciblé particulier des effets causals de plusieurs interventions ponctuelles. Cela implique l'utilisation d'un superapprentissage basé sur les pertes pour obtenir une estimation initiale des facteurs inconnus de la formule de calcul G, puis l'application d'une fonction de fluctuation optimale spécifique au paramètre cible (sous-modèle paramétrique le moins favorable) à chaque facteur estimé, estimer le ou les paramètres de fluctuation avec une estimation du maximum de vraisemblance et itérer cette étape de mise à jour du facteur initial jusqu'à la convergence. Cette étape de mise à jour du maximum de vraisemblance ciblée itérative rend l’estimateur résultant de l’effet causal doublement robuste en ce sens qu’il est cohérent si l’estimateur initial est cohérent, ou l'estimateur de la fonction de fluctuation optimale est cohérent. La fonction de fluctuation optimale est correctement spécifiée si les distributions conditionnelles des nœuds dans le graphe causal sur lequel on intervient sont correctement spécifiées.

Dans sa terminologie, le «super apprentissage» est un apprentissage d'ensemble avec un schéma de pondération non négatif théoriquement solide. Mais que veut-il dire par "appliquer une fonction de fluctuation optimale spécifique au paramètre cible (sous-modèle paramétrique le moins favorable) à chaque facteur estimé".

Ou en le divisant en trois questions distinctes, TMLE a-t-il un parallèle dans l'apprentissage automatique, qu'est-ce qu'un "sous-modèle paramétrique le moins favorable" et qu'est-ce qu'une "fonction de fluctuation" dans d'autres domaines?


1
L'une des raisons pour lesquelles la terminologie n'est pas familière est que le but de TMLE est d'estimer l'effet moyen du traitement - inférence causale, pas prédiction. Quand j'ai lu "super apprenant" dans des articles sur TMLE, j'ai pensé que les auteurs avaient emprunté le terme du paquet SuperLearner dans R pour construire des modèles d'ensemble.
RobertF

Réponses:


24

Je conviens que van der Laan a tendance à inventer de nouveaux noms pour des idées déjà existantes (par exemple le super-apprenant), mais TMLE n'en fait pas partie à ma connaissance. C'est en fait une idée très intelligente, et je n'ai rien vu de la communauté Machine Learning qui ressemble (bien que je puisse être juste ignorant). Les idées viennent de la théorie des équations d'estimation semiparamétriques efficaces, ce qui est quelque chose que les statisticiens pensent beaucoup plus que les ML.

L'idée est essentiellement la suivante. Supposons que soit un véritable mécanisme de génération de données et que l'intérêt porte sur une fonction particulière Ψ ( P 0 ) . Une telle fonction est souvent associée à une équation d'estimationP0 Ψ(P0)

iφ(Yiθ)=0,

est déterminé d'une certaine façon par P et contient suffisamment d'informations pour identifier Ψ . φ sera tel que E P φ ( Y θ ) = 0 . Résoudre cette équation dans θ peut, par exemple, être beaucoup plus facile que d'estimer l'ensemble de P 0 . Cette équation d'estimation est efficace en ce sens que tout estimateur efficace de Ψ ( P 0 ) est asymptotiquement équivalent à celui qui résout cette équation.θ=θ(P)PΨφEPφ(Yθ)=0θP0Ψ(P0)(Remarque: je suis un peu lâche avec le terme «efficace», car je ne fais que décrire l'heuristique.) La théorie derrière de telles équations d'estimation est assez élégante, ce livre étant la référence canonique. C'est là que l'on pourrait trouver des définitions standard des "sous-modèles les moins favorables"; ce ne sont pas des termes inventés par van der Laan.

P0P0Ψ(P0)P0P^Ψ(P^)nP0Ψ

p^

p^1,ϵ=p^exp(ϵ φ(Yθ))p^exp(ϵ φ(yθ)) dy

ϵϵϵ=0p^Ψϵ0p^1p^

p^2,ϵp^1,ϵ^exp(ϵ φ(Yθ).

et ainsi de suite jusqu'à ce que nous obtenions quelque chose, dans la limite, qui satisfait l'équation d'estimation efficace.


1
"Je suis d'accord que van der Laan a tendance à inventer de nouveaux noms pour des idées déjà existantes" - Oui, voir cette introduction à TMLE: biostats.bepress.com/ucbbiostat/paper252 , où van der Laan utilise "grossissement au hasard" pour signifier échangeabilité et "hypothèse de traitement expérimental (ETA)" pour signifier la positivité. :-) Ce n'est pas très inhabituel dans notre domaine. Les scientifiques des données utilisent des termes tels que rappel, précision et tests A / B que j'ai appris comme sensibilité, valeur prédictive positive et test d'hypothèse au collège.
RobertF

2
@RobertF CAR est dû à Heitjan et Rubin, et est une généralisation de MAR. Rubin a inventé le MAR et a également popularisé le cadre de résultats potentiels, donc l'utilisation de la CAR comme fourre-tout pour les hypothèses de type ignorabilité / interchangeabilité me semble juste.
mec
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.