Il me semble que votre question aborde plus généralement différentes formes de validation pour un modèle prédictif: la validation croisée est un peu plus liée à la validité interne , ou du moins à l'étape de la modélisation initiale, alors que l'établissement de liens de causalité sur une population plus large est davantage lié à validité externe. Par cela (et comme mise à jour à la suite de la belle remarque de @ Brett), je veux dire que nous construisons habituellement un modèle sur un échantillon de travail, en supposant un modèle conceptuel hypothétique (c’est-à-dire que nous spécifions les relations entre les prédicteurs et les résultats d’intérêt), et nous essayons d'obtenir des estimations fiables avec un taux d'erreur de classification minimal ou une erreur de prédiction minimale. Espérons que plus le modèle fonctionnera bien, plus il nous permettra de prévoir les résultats sur des données invisibles; Cependant, CV ne dit rien sur la "validité" ou l'adéquation des liens de causalité hypothétiques. Nous pourrions certainement obtenir des résultats décents avec un modèle où certains effets de modération et / ou de médiation sont négligés ou simplement inconnus à l’avance.
Mon point est que quelle que soit la méthode que vous utilisez pour valider votre modèle (et que la méthode d'externalisation n'est certes pas la meilleure, elle est néanmoins largement utilisée dans les études épidémiologiques pour atténuer les problèmes posés par la construction de modèle par étapes), vous travaillez avec le même échantillon. (que nous supposons être représentatif d'une population plus grande). Au contraire, les études de réplication permettent généralement de généraliser les résultats et les liens de causalité induits de cette manière à de nouveaux échantillons ou à une population apparentée de manière plausible . Cela garantit que nous pouvons tester en toute sécurité la capacité prédictive de notre modèle dans une "superpopulation" qui présente un plus grand éventail de variations individuelles et peut également présenter d'autres facteurs d'intérêt potentiels.
Votre modèle peut fournir des prévisions valables pour votre échantillon de travail et inclut tous les facteurs de confusion potentiels auxquels vous pourriez avoir pensé. Cependant, il est possible que les nouvelles données ne donnent pas de bons résultats, simplement parce que d'autres facteurs apparaissent dans le chemin causal intermédiaire qui n'ont pas été identifiés lors de la construction du modèle initial. Cela peut se produire si certains des prédicteurs et les liens de causalité qui en sont déduits dépendent du centre d’essai particulier où les patients ont été recrutés, par exemple.
En épidémiologie génétique, de nombreuses études d'association pangénomiques échouent simplement parce que nous essayons de modéliser des maladies complexes avec une vue trop simpliste des relations de cause à effet entre les marqueurs ADN et le phénotype observé, alors qu'il est très probable que gène-gène (épistase), Les maladies géniques (pléiotropie), gène-environnement et sous-structure de population entrent en jeu, mais voir par exemple Valider, augmenter et affiner les signaux d'association pangénomiques(Ioannidis et al., Nature Reviews Genetics, 2009 10). Ainsi, nous pouvons construire un modèle performant pour prendre en compte les variations croisées observées entre un ensemble de marqueurs génétiques (avec une taille d’effet très faible et éparse) et un motif multivarié de phénotypes observés (par exemple, le volume de matière blanche / grise Des activités localisées dans le cerveau observées par IRMf, des réponses à une évaluation neuropsychologique ou à un inventaire de la personnalité), ne se déroulent pas comme prévu sur un échantillon indépendant.
En ce qui concerne une référence générale à ce sujet, je peux recommander le chapitre 17 et la partie III des modèles de prédiction clinique , de EW Steyerberg (Springer, 2009). J'aime aussi l'article suivant de Ioannidis:
Ioannidis, JPA, Pourquoi les résultats de recherche les plus publiés sont-ils faux? PLoS Med. 2005 2 (8): e124