Questions marquées «overfitting»

L'erreur de modélisation (en particulier l'erreur d'échantillonnage) au lieu de relations réplicables et informatives entre les variables améliore les statistiques d'ajustement du modèle, mais réduit la parcimonie et aggrave la validité explicative et prédictive.




1
Dans la théorie de l'apprentissage statistique, n'y a-t-il pas un problème de surapprentissage sur un ensemble de test?
Examinons le problème de la classification de l'ensemble de données MNIST. Selon la page Web MNIST de Yann LeCun , «Ciresan et al.» a obtenu un taux d'erreur de 0,23% sur l'ensemble de test MNIST en utilisant le réseau neuronal convolutionnel. Notons l'ensemble de formation MNIST comme DtrainDtrainD_{train} , l'ensemble …










3
Est-il préférable de sélectionner des distributions basées sur la théorie, l'ajustement ou autre chose?
Ceci est à la limite d'une question philosophique, mais je suis intéressé par la façon dont d'autres personnes ayant plus d'expérience pensent la sélection de distribution. Dans certains cas, il semble clair que la théorie pourrait mieux fonctionner (les longueurs de queue des souris sont probablement normalement distribuées). Dans de …

3
Bayesian vs MLE, problème de surajustement
Dans le livre de Bishop's PRML, il dit que le sur-ajustement est un problème avec l'estimation de maximum de vraisemblance (MLE), et que le bayésien peut l'éviter. Mais je pense que le sur-ajustement est un problème plus lié à la sélection du modèle, pas à la méthode utilisée pour faire …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.