L'application directe des méthodes de bootstrap pour les tests d'hypothèses est d'estimer l'intervalle de confiance de la statistique de test θ en calculant de façon répétée sur les échantillons bootstrap de (Soit la statistique θ échantillonné à partir bootstrap être appelé ^ θ * ). Nous rejetons H 0 si le paramètre hypothétique θ 0 (qui est généralement égal à 0) se situe en dehors de l'intervalle de confiance de ^ θ ∗ .
J'ai lu que cette méthode manque de puissance. Dans l'article de salle P. Wilson et SR « Deux lignes directrices pour Bootstrap Test d' hypothèse » (1992) il est écrit que la première directive, que l' on devrait rééchantillonner , pas ^ θ * - θ 0 . Et c'est la partie que je ne comprends pas.
Est -ce pas le mesures juste le biais de l'estimateur ^ θ * ? Pour les estimateurs sans biais les intervalles de confiance de cette expression doit toujours être inférieure à ^ θ * - θ 0 , mais je ne vois pas , ce qu'elle a à voir avec le test pour θ = θ 0 ? Il n'y a nulle part où je peux voir que nous mettons des informations sur le θ 0 .
Pour ceux d'entre vous, qui n'ont pas accès à cet article, voici une citation du paragraphe pertinent qui vient immédiatement après la thèse:
Pour comprendre pourquoi c'est important, observez que le test impliquera de rejeter si dans | Θ - θ 0 | est "trop grand". Si θ 0 est loin de la vraie valeur de θ (c'est-à-dire si H 0 est grossièrement l'erreur) alors la différence | Θ - θ 0 | ne sera jamais très gros par rapport à la distribution bootstrap non paramétrique de | Θ - θ 0 | . Une comparaison plus significative est avec la distribution de. En fait, si la vraie valeur deθest θ 1, alors la puissance du test de bootstrap augmente à 1 comme | θ 1 - θ 0 | augmente, à condition que le test soit basé sur le rééchantillonnage | ^ Θ * - θ | , mais la puissance diminue au maximum au niveau de signification (lorsque | θ 1 - θ 0 | augmente) si le test est basé sur le rééchantillonnage | θ -