J'ai (approximativement) entendu que:
l'ensachage est une technique pour réduire la variance d'un prédicteur / estimateur / algorithme d'apprentissage.
Cependant, je n'ai jamais vu de preuve mathématique formelle de cette affirmation. Est-ce que quelqu'un sait pourquoi c'est mathématiquement vrai? Il semble que ce soit un fait si largement accepté / connu que je m'attendrais à une référence directe à cela. Je serais surpris s'il n'y en avait pas. De plus, quelqu'un sait-il quel effet cela a sur le biais?
Existe-t-il d'autres garanties théoriques d'approches ensachées que quelqu'un sait et pense importantes et veut les partager?