(Cette question peut sembler mieux adaptée à la philosophie SE. J'espère que les statisticiens pourront clarifier mes idées fausses sur les déclarations de Box et Shmueli, donc je la poste ici).
George Box (de renommée ARIMA) a déclaré:
"Tous les modèles sont faux, mais certains sont utiles."
Galit Shmueli dans son célèbre article "Expliquer ou prédire" , fait valoir (et cite d'autres personnes qui sont d'accord avec elle) que:
Expliquer et prédire ne sont pas les mêmes, et certains modèles expliquent bien, même s'ils prédisent mal.
Je pense que ces principes sont en quelque sorte contradictoires.
Si un modèle ne prédit pas bien, est-il utile?
Plus important encore, si un modèle explique bien (mais ne prévoit pas nécessairement bien), il doit être vrai (c'est-à-dire pas faux) d'une manière ou d'une autre. Alors, comment cela cadre-t-il avec «tous les modèles sont faux» de Box?
Enfin, si un modèle explique bien, mais ne prédit pas bien, comment est-il même scientifique? La plupart des critères de démarcation scientifique (vérificationnisme, falsificstionisme, etc ...) impliquent qu'une déclaration scientifique doit avoir un pouvoir prédictif, ou familièrement: une théorie ou un modèle n'est correct que s'il peut être testé empiriquement (ou falsifié), ce qui signifie qu'il doit prévoir les résultats futurs.
Mes questions:
- La déclaration de Box et les idées de Shmueli sont-elles en effet contradictoires ou manque-t-il quelque chose, par exemple, un modèle ne peut-il pas avoir un pouvoir prédictif tout en restant utile?
- Si les déclarations de Box et Shmueli ne sont pas contradictoires, alors qu'est-ce que cela signifie pour un modèle de se tromper et de ne pas bien prédire, tout en ayant toujours un pouvoir explicatif? Autrement dit: si l'on enlève à la fois l'exactitude et la capacité de prédiction, que reste-t-il d'un modèle?
Quelles validations empiriques sont possibles lorsqu'un modèle a un pouvoir explicatif, mais pas un pouvoir prédictif? Shmueli mentionne des choses comme: utiliser l'AIC pour l'explication et le BIC pour la prédiction, etc., mais je ne vois pas comment cela résout le problème. Avec les modèles prédictifs, vous pouvez utiliser l'AIC, ou le BIC, ou la régularisation , ou , etc ... mais en fin de compte, les tests sur échantillon et les performances en production déterminent la qualité du modèle. Mais pour les modèles qui expliquent bien, je ne vois pas comment une fonction de perte peut vraiment évaluer un modèle. En philosophie des sciences, il y a le concept de sous- détermination qui semble pertinent ici: pour tout ensemble de données donné, on peut toujours judicieusement choisir une distribution (ou un mélange de distributions) et une fonction de perte de telle manière qu'ils correspondent aux données (et peuvent donc être revendiqués pour les expliquer). De plus, le seuil que devrait être inférieur pour que quelqu'un prétende que le modèle explique adéquatement les données est arbitraire (un peu comme des valeurs de p similaires, pourquoi est-ce et non ou ?).
- Sur la base de ce qui précède, comment peut-on valider objectivement un modèle qui explique bien, mais ne prévoit pas bien, car les tests hors échantillon ne sont pas possibles?