Deux méthodes de tests de signification bootstrap


10

En utilisant le bootstrap, je calcule les valeurs de p des tests de signification en utilisant deux méthodes:

  1. rééchantillonnage sous l'hypothèse nulle et comptage des résultats au moins aussi extrêmes que le résultat provenant des données originales
  2. rééchantillonnage sous l'hypothèse alternative et comptage des résultats au moins aussi éloignés du résultat d'origine que la valeur correspondant à l'hypothèse nulle

Je crois que le 1 er approche est tout à fait correcte car il suit la définition de la valeur ap. Je suis moins sûr de la seconde, mais cela donne généralement des résultats très similaires et me rappelle un test de Wald.

Ai-je raison? Les deux méthodes sont-elles correctes? Sont-ils identiques (pour les grands échantillons)?


Exemples pour les deux méthodes (modifications après les questions de DWin et la réponse d'Erik):
Exemple 1. Construisons un test d'amorçage similaire aux deux exemples de test T. La méthode 1 rééchantillonnera à partir d'un échantillon (obtenu en regroupant les deux originaux). La méthode 2 rééchantillonnera indépendamment des deux échantillons.

Exemple 2. Construisons un test bootstrap de corrélation entre x₁… xₐ et y₁… yₐ. La méthode 1 ne supposera aucune corrélation et rééchantillonnera en tenant compte des paires (xₑ, yₔ) où e ≠ ə. La méthode 2 compilera un échantillon d'amorçage des paires originales (x, y).

Exemple 3. Construisons un test de bootstrap pour vérifier si une pièce est juste. La méthode 1 créera des échantillons aléatoires en réglant Pr (tête) = Pr (queue) = ½. La méthode 2 permettra de rééchantillonner l'échantillon de valeurs expérimentales tête / queue et de comparer les proportions à ½.


Quelle "hypothèse alternative"? Dans la nomenclature traditionnelle des pêcheurs, il n'y aurait pas qu'une seule alternative mais une famille infinie d'alternatives. Et comment "échantillonnez-vous sous une hypothèse" d'ailleurs? L'échantillonnage est effectué sur les données. l'hypothèse concerne un paramètre.
DWin

@DWin: Merci, veuillez voir mon exemple ajouté à ma question.
winerd

Réponses:


7

La première approche est classique et fiable mais ne peut pas toujours être utilisée. Pour obtenir des échantillons de bootstrap en supposant l'hypothèse nulle, vous devez soit être prêt à supposer une distribution théorique à tenir ( c'est votre première option ), soit à supposer que votre statistique d'intérêt a la même forme distributionnelle lorsqu'elle est déplacée vers l'hypothèse nulle ( votre deuxième option ). Par exemple, dans l'hypothèse habituelle, la distribution t a la même forme lorsqu'elle est déplacée vers une autre moyenne. Cependant, lorsque vous modifiez la fréquence nulle de 0,5 d'une distribution binomiale à 0,025, la forme change également.

D'après mon expérience, sinon dans le cas où vous êtes prêt à faire ces hypothèses, vous avez souvent aussi d'autres options. Dans votre exemple 1) où vous semblez supposer que les deux échantillons auraient pu provenir de la même population de base, un test de permutation serait mieux à mon avis.

Il existe une autre option (que vous semblez être votre 2e choix) qui est basée sur les intervalles de confiance du bootstrap. Fondamentalement, cela suppose que si votre couverture déclarée maintient que la signification à un niveau de équivaut à l'hypothèse nulle non incluse dans l' intervalle de confiance . Voir par exemple cette question: Quelle est la différence entre les intervalles de confiance et les tests d'hypothèse?α(1α)

Il s'agit d'une méthode très flexible et applicable à de nombreux tests. Cependant, il est très important de construire de bons intervalles de confiance bootstrap et pas simplement d'utiliser des approximations de Wald ou la méthode des centiles. Quelques informations sont ici: intervalle de confiance basé sur Bootstrap


1
Bonne réponse. La deuxième option nécessite donc trop de symétrie, non? Supposons que la moyenne de votre intervalle de confiance est supérieure à 0 et que vous considérez que H n'est pas qu'il est égal à 0. Ensuite, regarder où 0 est dans votre intervalle de confiance est différent de regarder à quel point la valeur moyenne est extrême en supposant que H ne soit pas ( ceux-ci sont dans deux directions différentes, si vous supposez que vous modifiez l'intervalle de confiance).
michal

@erik vient de commencer une prime sur une question similaire - qui est essentiellement une version longue et venteuse du commentaire ci-dessus - quand l'option 2 peut-elle être utilisée et dans quelles conditions? stats.stackexchange.com/questions/175659/…
Xavier Bourret Sicotte
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.