J'essaie actuellement de comprendre certaines choses concernant le bootstrap paramétrique. La plupart des choses sont probablement insignifiantes, mais je pense toujours avoir raté quelque chose.
Supposons que je souhaite obtenir des intervalles de confiance pour les données à l'aide d'une procédure d'amorçage paramétrique.
J'ai donc cet échantillon et je suppose qu'il est normalement distribué. Je voudrais ensuite estimer la variance v et moyenne m et obtenir mon estimation de distribution P , ce qui est évidemment juste N ( m , v ) .
Au lieu d'échantillonner à partir de cette distribution, je pourrais simplement calculer les quantiles analytiquement et être fait.
a) Je conclus: dans ce cas trivial, le bootstrap paramétrique serait le même que le calcul des choses dans une hypothèse de distribution normale?
Donc, théoriquement, ce serait le cas pour tous les modèles de bootstrap paramétriques, tant que je peux gérer les calculs.
b) Je conclus: utiliser l'hypothèse d'une certaine distribution m'apportera une précision supplémentaire dans le bootstrap paramétrique par rapport à celui non paramétrique (si c'est correct bien sûr). Mais à part ça, je le fais juste parce que je ne peux pas gérer les calculs analytiques et essayer de simuler ma sortie?
c) Je l'emploierais également si les calculs sont «habituellement» effectués en utilisant une approximation car cela me donnerait peut-être plus de précision…?
Pour moi, l'avantage du bootstrap (non paramétrique) semblait résider dans le fait que je n'ai pas besoin d'assumer de distribution. Pour le bootstrap paramétrique, cet avantage a disparu - ou y a-t-il des choses que j'ai manquées et où le bootstrap paramétrique offre un avantage sur les choses mentionnées ci-dessus?