Questions marquées «cross-validation»

Retenue répétée de sous-ensembles de données pendant l'ajustement de modèle afin de quantifier les performances du modèle sur les sous-ensembles de données retenus.

2
Variation élevée de la validation croisée avec absence
J'ai lu maintes et maintes fois que la validation croisée "Leave-one-out" a une grande variance en raison du grand chevauchement des plis de formation. Cependant, je ne comprends pas pourquoi: les performances de la validation croisée ne devraient-elles pas être très stables (faible variance) exactement parce que les ensembles d'entraînement …

1
Et si la précision de validation était élevée mais la précision de test faible dans la recherche?
J'ai une question spécifique sur la validation dans la recherche d'apprentissage automatique. Comme nous le savons, le régime d'apprentissage automatique demande aux chercheurs de former leurs modèles sur les données de formation, de choisir parmi les modèles candidats par ensemble de validation et de rendre compte de la précision sur …


3
Comment choisir un nombre optimal de facteurs latents dans la factorisation matricielle non négative?
Étant donné une matrice Vm×nVm×n\mathbf V^{m \times n} , la factorisation matricielle non négative (NMF) trouve deux matrices non négatives Wm×kWm×k\mathbf W^{m \times k} et Hk×nHk×n\mathbf H^{k \times n} (c'est-à-dire avec tous les éléments ≥0≥0\ge 0 ) pour représenter la matrice décomposée comme: V≈WH,V≈WH,\mathbf V \approx \mathbf W\mathbf H, WW\mathbf …

1
Quelle méthode de comparaison multiple utiliser pour un modèle lmer: lsmeans ou glht?
J'analyse un ensemble de données à l'aide d'un modèle à effets mixtes avec un effet fixe (condition) et deux effets aléatoires (participant en raison de la conception et de la paire du sujet). Le modèle a été généré avec le lme4package: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Ensuite, j'ai effectué un test de rapport de …

2
Pourquoi la fonction d'amorçage scikit-learn rééchantillonne-t-elle l'ensemble de test?
Lors de l'utilisation du bootstrap pour l'évaluation de modèles, j'ai toujours pensé que les échantillons hors sac étaient directement utilisés comme ensemble de test. Cependant, cela ne semble pas être le cas pour l' approche obsolète de scikit-learnBootstrap , qui semble construire l'ensemble de test à partir d'un dessin avec …



4
Quelles sont les études de cas dans la recherche sur les politiques de santé publique où des études ou des modèles peu fiables / confus / invalides ont été mal utilisés?
Je rédige une revue de la littérature sur un problème de santé publique actuel où les données sont confondues: Quelles sont les études de cas historiques courantes utilisées dans l'enseignement de la santé publique / épidémiologie où des relations ou des inférences invalides ou confondues ont été intentionnellement ou erronément …





2
Scikit bonne façon d'étalonner les classificateurs avec CalibratedClassifierCV
Scikit a CalibratedClassifierCV , qui nous permet d'étalonner nos modèles sur une paire X, y particulière. Il indique également clairement quedata for fitting the classifier and for calibrating it must be disjoint. S'ils doivent être disjoints, est-il légitime de former le classificateur avec les éléments suivants? model = CalibratedClassifierCV(my_classifier) model.fit(X_train, …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.