J'ai vu quelques discussions de non-statisticiens où ils semblent réinventer des mesures de corrélation en utilisant des informations mutuelles plutôt que de régression (ou des tests statistiques équivalents / étroitement liés).
Je suppose qu'il y a une bonne raison pour laquelle les statisticiens n'adoptent pas cette approche. D'après mon profane, les estimateurs de l'entropie / information mutuelle ont tendance à être problématiques et instables. Je suppose que le pouvoir est également problématique en conséquence: ils essaient de contourner cela en affirmant qu'ils n'utilisent pas de cadre de test paramétrique. Habituellement, ce type de travail ne se soucie pas des calculs de puissance, ni même des intervalles de confiance / crédibles.
Mais pour prendre la position d'un défenseur du diable, la convergence lente est-elle si importante lorsque les ensembles de données sont extrêmement volumineux? De plus, ces méthodes semblent parfois «fonctionner» dans le sens où les associations sont validées par des études de suivi. Quelle est la meilleure critique contre l'utilisation d'informations mutuelles comme mesure d'association et pourquoi n'est-elle pas largement utilisée dans la pratique statistique?
modifier: En outre, existe-t-il de bons articles qui couvrent ces questions?