Je pense que les réponses précédentes font du bon travail en soulignant des points importants:
- Les modèles parcimonieux ont généralement de meilleures caractéristiques de généralisation.
- La parcimonie n'est pas vraiment un étalon-or, mais juste une considération.
Je veux ajouter quelques commentaires qui découlent de mon expérience professionnelle au jour le jour.
La généralisation de l'argument de l'exactitude prédictive est, bien sûr, forte, mais est académiquement biaisée dans sa focalisation. En général, lors de la production d'un modèle statistique, les économies ne sont pas telles que la performance prédictive est une considération complètement dominante. Très souvent, il existe de grandes contraintes extérieures sur l'apparence d'un modèle utile pour une application donnée:
- Le modèle doit être réalisable dans un cadre ou un système existant.
- Le modèle doit être compréhensible par une entité non technique.
- Le modèle doit être efficace sur le plan informatique.
- Le modèle doit être documentable .
- Le modèle doit passer des contraintes réglementaires .
Dans les domaines d'application réels, bon nombre de ces considérations, sinon toutes, viennent avant , et non après , les performances prédictives - et l'optimisation de la forme et des paramètres du modèle est limitée par ces désirs. Chacune de ces contraintes incite le scientifique à la parcimonie.
Il est peut-être vrai que dans de nombreux domaines ces contraintes sont progressivement levées. Mais c'est le scientifique chanceux qui parvient à les ignorer se concentre uniquement sur la minimisation des erreurs de généralisation.
Cela peut être très frustrant pour la première fois scientifique, fraîchement sorti de l'école (c'était définitivement pour moi, et continue de l'être quand je sens que les contraintes imposées à mon travail ne sont pas justifiées). Mais en fin de compte, travailler dur pour produire un produit inacceptable est un gaspillage, ce qui est pire que la piqûre de votre fierté scientifique.