J'ai vu les livres de Vapnik sur l'apprentissage statistique ... J'ai lu les premiers chapitres. Quoi qu'il en soit, ce qui m'a le plus surpris, c'est qu'il pensait que le rasoir de l'Occam était obsolète.
Je pensais que c'était lié à la situation dans laquelle le fait de supposer une dimension supérieure améliore considérablement l'ajustement.
Suis-je bien compris? Est-il exact que le rasoir d'Occam ne peut plus avoir raison, comme l'a dit Vapnik?
Y a-t-il un argument selon lequel le rasoir d'Occam ne devrait pas être considéré comme celui par défaut?
Les phrases exactes proviennent de la préface de la deuxième édition de La nature de l'apprentissage statistique , qui sont:
Les années écoulées depuis la première édition du livre ont également changé la philosophie générale de notre compréhension de la nature du problème d'induction. Après de nombreuses expériences réussies avec SVM, les chercheurs sont devenus plus déterminés à critiquer la philosophie classique de la généralisation basée sur le principe du rasoir d'Occam. "
J'aimerais que quelqu'un puisse développer la critique du rasoir d'Occam.