J'ai effectué une évaluation informatisée des différentes méthodes d'ajustement d'un type particulier de modèle utilisé dans les sciences paléo. J'avais un ensemble d'entraînement de grande taille et j'ai donc mis au hasard (échantillonnage aléatoire stratifié) un ensemble de tests de côté. J'ai adapté différentes méthodes aux échantillons de l'ensemble d'apprentissage et en utilisant les m modèles résultants, j'ai prédit la réponse pour les échantillons de l'ensemble de test et calculé un RMSEP sur les échantillons de l'ensemble de test. Il s'agit d'une seule exécution .
J'ai ensuite répété ce processus un grand nombre de fois, chaque fois que j'ai choisi un ensemble d'entraînement différent en échantillonnant au hasard un nouvel ensemble de tests.
Cela fait, je veux rechercher si l'une des méthodes a des performances RMSEP meilleures ou pires. Je voudrais également faire plusieurs comparaisons des méthodes par paires.
Mon approche a consisté à adapter un modèle à effets mixtes linéaires (LME), avec un seul effet aléatoire pour Run . J'ai utilisé à lmer()
partir du package lme4 pour adapter mon modèle et les fonctions du package multcomp pour effectuer les comparaisons multiples. Mon modèle était essentiellement
lmer(RMSEP ~ method + (1 | Run), data = FOO)
où method
est un facteur indiquant quelle méthode a été utilisée pour générer les prédictions du modèle pour l'ensemble de test et Run
est un indicateur pour chaque cycle particulier de mon "expérience".
Ma question concerne les résidus du LME. Compte tenu de l'effet aléatoire pour Run je suppose que les valeurs de RMSEP pour cette course sont corrélées à un certain degré , mais ne sont pas corrélés entre les courses, sur la base de la corrélation induite par les effets de PROCURE de hasard.
Cette hypothèse d'indépendance entre les courses est-elle valable? Sinon, existe-t-il un moyen de tenir compte de cela dans le modèle LME ou devrais-je chercher à utiliser un autre type d'analyse statique pour répondre à ma question?