Cette question fait référence à l'article de Galit Shmueli "Expliquer ou prédire" .
Plus précisément, dans la section 1.5, «Expliquer et prédire sont différents», le professeur Shmueli écrit:
Dans la modélisation explicative, l'accent est mis sur la minimisation du biais pour obtenir la représentation la plus précise de la théorie sous-jacente.
Cela m'a intrigué chaque fois que j'ai lu le journal. Dans quel sens minimiser le biais dans les estimations donne-t-il la représentation la plus précise de la théorie sous-jacente?
J'ai également regardé la conférence du professeur Shmueli ici , prononcée au JMP Discovery Summit 2017, et elle déclare:
... des choses qui sont comme des modèles de rétrécissement, des ensembles, vous ne les verrez jamais. Parce que ces modèles, par conception, introduisent un biais afin de réduire le biais / la variance globale. C'est pourquoi ils ne seront pas là, cela n'a aucun sens théorique de le faire. Pourquoi voudriez-vous que votre modèle soit biaisé à dessein?
Cela ne fait pas vraiment la lumière sur ma question, réaffirmant simplement l'affirmation que je ne comprends pas.
Si la théorie a de nombreux paramètres et que nous avons peu de données pour les estimer, l'erreur d'estimation sera dominée par la variance. Pourquoi serait-il inapproprié d'utiliser une procédure d'estimation biaisée comme la régression de crête (résultant en des estimations biaisées de variance plus faible) dans cette situation?