Intuitivement, comment fonctionne le bootstrap sauvage?


8

J'essaie de comprendre l'intuition derrière le bootstrap sauvage. Que fait-il réellement? Je dois être capable de comprendre ce qu'il essaie de faire par rapport à une régression conventionnelle.

Mes données ont une hétéroscédasticité et la méthode que j'utilise fait 5000 réplications.

Comment génère-t-il 5000 données supplémentaires?

Réponses:


9

Supposons que vous ayez un ensemble d'apprentissage de exemples de paires .Tn(yi,xi)

Un bootstrap normal est un ensemble de exemples de paires , où est une séquence de entiers aléatoires échantillonnés uniformément de 1 à . En particulier, notez que chaque exemple dans est exactement le même que l'un des exemples de , et certains sont répétés. Mais cela est un peu bizarre, surtout lorsque la variable de réponse est continue, car si nous rééchantillonnions la population d'origine, nous n'obtiendrions sûrement même pas un double exact , alors qu'un bootstrap en aurait probablement plusieurs.Bn(yri,xri)rinnBT

Pour éviter les doublons, nous avons besoin que les exemples de ne soient pas des copies conformes d'exemples de , mais plutôt des exemples synthétiques qui ressemblent plus à ce que nous obtiendrions que nous avons échantillonnés à partir de la population d'origine. Cela nécessite de faire une hypothèse sur la répartition de la population d'origine.B T

Si nous supposons l'homoscédasticité et ajustons un modèle linéaire à qui a des résidus alors nous pouvons construire de nouveaux exemples synthétiques en remplaçant le résidu ajusté de chaque exemple par le résidu d'un exemple d'apprentissage différent . Si les résidus sont vraiment iid, il ne devrait y avoir aucun problème à les échanger les uns contre les autres. Nous faisons ce remplacement en soustrayant le résiduel trouvé pour l'exemple de formation et en ajoutant le résiduel pour un autre exemple:Tei(yi,xi)

(1)yi=yrieri+eri

Où et sont deux rééchantillonnages différents et indépendants. On peut alors former le bootstrap de la manière habituelle:riri

(2)B={(yi,xi)}i=1n

C'est ce qu'on appelle le bootstrap résiduel et peut être considéré comme le choix de nouveaux résidus à partir de la fonction de distribution empirique des résidus.

Pour assouplir davantage les hypothèses iid et homoskedasticity, nous pouvons utiliser un bootstrap sauvage , où nous calculons la nouvelle variable de réponse encore plus au hasard en multipliant le résidu choisi au hasard par encore une autre variable aléatoire .vi

(3)yi=yrieri+vieri

Souvent, la distribution normale standard est utilisée mais d'autres choix sont possibles. Par exemple, parfois est simplement choisi avec une probabilité égale parmi , qui retourne simplement le signe au hasard la moitié du temps, forçant la distribution résiduelle à être symétrique. Le but est d'obtenir des exemples de formation plus proches de ce que nous aurions pu tirer de la population d'origine sans la réplication artificielle introduite par le bootstrap.viN(0,1)vi{1,1}


Donc, fondamentalement, nous générons des erreurs qui se comportent de la même manière que les résidus réels, puis obtenons des données réelles qui fonctionnent de la même manière que les données réelles? Des manuels à recommander?
Francis Origi

alors quoi, que faisons-nous avec toutes ces données supplémentaires? Comment calcule-t-on les statistiques t, etc.?
Francis Origi
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.