Je me souviens encore du document Annals of Statistics sur Boosting de Friedman-Hastie-Tibshirani, ainsi que des commentaires d'autres auteurs (dont Freund et Schapire) sur le même sujet. À l’époque, clairement, Boosting était perçu comme une avancée à bien des égards: réalisable sur le plan informatique, méthode d’ensemble, avec une performance à la fois excellente et mystérieuse. À peu près à la même époque, SVM a atteint sa maturité en offrant un cadre reposant sur une théorie solide, avec de nombreuses variantes et applications.
C'était dans les merveilleuses années 90. Au cours des 15 dernières années, il me semble que de nombreuses statistiques ont été une opération de nettoyage et de détail, mais avec peu de points de vue vraiment nouveaux.
Je vais donc poser deux questions:
- Ai-je manqué un papier révolutionnaire / séminal?
- Sinon, y a-t-il de nouvelles approches qui, selon vous, pourraient potentiellement changer le point de vue de l'inférence statistique?
Règles:
- Une réponse par poste;
- Références ou liens bienvenus.
PS: J'ai quelques candidats pour des percées prometteuses. Je les posterai plus tard.