Questions marquées «model-selection»

La sélection des modèles est un problème pour juger quel modèle d'un ensemble donne les meilleurs résultats. Les méthodes populaires incluentR2, Critères AIC et BIC, ensembles de tests et validation croisée. Dans une certaine mesure, la sélection des fonctionnalités est un sous-problème de la sélection des modèles.

3
Justification empirique de la règle d'erreur standard unique lors de l'utilisation de la validation croisée
Existe-t-il des études empiriques justifiant l’utilisation de la règle de l’erreur standard unique en faveur de la parcimonie? Cela dépend évidemment du processus de génération des données, mais tout ce qui analyse un grand corpus de jeux de données serait une lecture très intéressante. La "règle d'erreur standard unique" est …


1
Quand la validation croisée imbriquée est-elle vraiment nécessaire et peut-elle faire la différence?
Lorsque vous utilisez la validation croisée pour sélectionner des modèles (par exemple, un réglage hyperparamètre) et pour évaluer les performances du meilleur modèle, vous devez utiliser une validation croisée imbriquée . La boucle externe sert à évaluer les performances du modèle et la boucle interne à sélectionner le meilleur modèle. …

7
Choix de variables à inclure dans un modèle de régression linéaire multiple
Je travaille actuellement à la construction d'un modèle utilisant une régression linéaire multiple. Après avoir manipulé mon modèle, je ne sais pas comment déterminer au mieux les variables à conserver et celles à supprimer. Mon modèle a commencé avec 10 prédicteurs pour le DV. Lors de l'utilisation des 10 prédicteurs, …


2
Sélection de modèle et validation croisée: la bonne manière
CrossValidated contient de nombreuses discussions sur la sélection de modèles et la validation croisée. Voici quelques-uns: Validation croisée interne et externe et sélection du modèle La réponse de @ DikranMarsupial à la sélection des fonctionnalités et à la validation croisée Cependant, les réponses à ces discussions sont assez génériques et …



1
Que sont les contrôles prédictifs postérieurs et qu'est-ce qui les rend utiles?
Je comprends ce qu'est la distribution prédictive postérieure , et j'ai lu sur les vérifications prédictives postérieures , bien que je ne sache pas encore ce qu'elle fait. Quelle est exactement la vérification prédictive postérieure? Pourquoi certains auteurs affirment que l'exécution de vérifications prédictives postérieures «utilise les données deux fois» …

5
Directives AIC dans la sélection du modèle
J'utilise généralement BIC, car je pense qu'il valorise la parcimonie plus fortement que l'AIC. Cependant, j’ai décidé d’utiliser maintenant une approche plus globale et j’aimerais aussi utiliser AIC. Je sais que Raftery (1995) a présenté de bonnes directives pour les différences BIC: 0-2 est faible, 2-4 est la preuve positive …


1
Utilisation abusive de la validation croisée (rapport des performances pour la meilleure valeur d'hyperparamètre)
Récemment, je suis tombé sur un article qui propose d'utiliser un classificateur k-NN sur un ensemble de données spécifique. Les auteurs ont utilisé tous les échantillons de données disponibles pour effectuer une validation croisée k-fold pour différentes valeurs k et rapporter les résultats de la validation croisée de la meilleure …


3
l'opportunité de remettre à l'échelle l'indicateur / les prédicteurs binaires / fictifs pour LASSO
Pour le LASSO (et d'autres procédures de sélection de modèle), il est crucial de redimensionner les prédicteurs. La recommandation générale que je suis consiste simplement à utiliser une normalisation de 0 moyenne, 1 écart-type pour les variables continues. Mais que faire avec les nuls? Par exemple, certains exemples appliqués de …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.