Quelle est la signification d'un intervalle de confiance pris à partir de rééchantillons bootstrapped?


38

J'ai consulté de nombreuses questions sur ce site concernant l'amorçage et les intervalles de confiance, mais je suis toujours confus. Une partie de la raison de ma confusion tient probablement au fait que mes connaissances en statistiques ne sont pas suffisamment avancées pour comprendre un grand nombre de réponses. Je suis à mi-chemin d'un cours d'introduction aux statistiques et mon niveau en mathématiques ne concerne que le milieu de l'Algèbre II. Si l'une des personnes bien informées de ce site pouvait expliquer ce problème à mon niveau, ce serait extrêmement utile.

Nous apprenions en classe comment prendre des échantillons à l'aide de la méthode bootstrap et les utiliser pour créer un intervalle de confiance des statistiques que nous aimerions mesurer. Ainsi, par exemple, supposons que nous prenons un échantillon d’une grande population et trouvons que 40% d’entre eux déclarent qu’ils voteront pour le candidat A. Nous supposons que cet échantillon est un reflet fidèle de la population d’origine, auquel cas nous pouvons prendre des échantillons de découvrir quelque chose sur la population. Nous prenons donc des rééchantillons et trouvons (avec un niveau de confiance de 95%) que l’intervalle de confiance obtenu est compris entre 35% et 45%.

Ma question est la suivante: que signifie réellement cet intervalle de confiance ?

Je continue à lire qu'il y a une différence entre les intervalles de confiance (Frequentist) et les intervalles crédibles (Bayésiens). Si je comprends bien, un intervalle crédible dire qu'il ya une probabilité de 95% que la situation le vrai paramètre est dans l'intervalle donné (35% -45%), tandis qu'un intervalle de confiance dire qu'il ya 95% que ce type de situation (mais pas nécessairement dans notre cas en particulier), la méthode que nous utilisons indiquerait avec précision que le paramètre réel se situe dans l'intervalle donné.

En supposant que cette définition soit correcte, ma question est la suivante: quel est le "vrai paramètre" dont nous parlons lorsque nous utilisons des intervalles de confiance construits à l'aide de la méthode bootstrap? Parlons-nous (a) du paramètre réel de la population d'origine ou (b) du paramètre réel de l' échantillon ? Si (a), nous dirions alors que 95% du temps, la méthode bootstrap rapportera avec précision les affirmations vraies concernant la population d'origine. Mais comment pourrions-nous savoir cela? Toute la méthode bootstrap ne repose-t-elle pas sur l' hypothèseque l'échantillon initial reflète fidèlement la population à partir de laquelle il a été pris? Si (b), je ne comprends pas du tout la signification de l'intervalle de confiance. Ne connaissons-nous pas déjà le vrai paramètre de l'échantillon? C'est une mesure simple!

J'ai discuté de cela avec mon professeur et elle a été très utile. Mais je suis toujours confus.

Réponses:


28

Si la procédure d'amorçage et la formation de l'intervalle de confiance ont été effectuées correctement, cela signifie la même chose que tout autre intervalle de confiance. D'un point de vue fréquentiste, un IC à 95% implique que si toute l'étude était répétée à l'identique à l' infini , 95% de ces intervalles de confiance ainsi formés incluraient la valeur vraie. Bien sûr, dans votre étude, ou dans une étude individuelle donnée, l’intervalle de confiance inclura la valeur réelle ou non, mais vous ne saurez pas lequel. Pour mieux comprendre ces idées, vous pouvez lire ma réponse ici: Pourquoi un intervalle de confiance à 95% n'implique-t-il pas une probabilité de 95% de contenir la moyenne?

En ce qui concerne vos autres questions, la «valeur réelle» fait référence au paramètre réel de la population concernée. (Les échantillons n'ont pas de paramètres, ils ont des statistiques ; par exemple, la moyenne d'échantillon, , est une statistique d'échantillon, mais la moyenne de population, , est un paramètre de population.) En ce qui concerne la façon dont nous le savons, en pratique nous pas. Vous avez raison de dire que nous nous appuyons sur certaines hypothèses - nous le faisons toujours. Si ces hypothèses sont correctes, il peut être prouvé que les propriétés sont valables. C'était le but du travail d'Efron à la fin des années 70 et au début des années 80, mais la plupart des gens ont du mal à suivre. Pour une explication quelque peu mathématique du bootstrap, voir la réponse de @ StasK ici: Expliquer aux laïcs pourquoi le bootstrap fonctionneX¯μ. Pour une démonstration rapide, calculez la simulation suivante en utilisant R:

# a function to perform bootstrapping
boot.mean.sampling.distribution = function(raw.data, B=1000){
  # this function will take 1,000 (by default) bootsamples calculate the mean of 
  # each one, store it, & return the bootstrapped sampling distribution of the mean

  boot.dist = vector(length=B)     # this will store the means
  N         = length(raw.data)     # this is the N from your data
  for(i in 1:B){
    boot.sample  = sample(x=raw.data, size=N, replace=TRUE)
    boot.dist[i] = mean(boot.sample)
  }
  boot.dist = sort(boot.dist)
  return(boot.dist)
}

# simulate bootstrapped CI from a population w/ true mean = 0 on each pass through
# the loop, we will get a sample of data from the population, get the bootstrapped 
# sampling distribution of the mean, & see if the population mean is included in the
# 95% confidence interval implied by that sampling distribution

set.seed(00)                       # this makes the simulation reproducible
includes = vector(length=1000)     # this will store our results
for(i in 1:1000){
  sim.data    = rnorm(100, mean=0, sd=1)
  boot.dist   = boot.mean.sampling.distribution(raw.data=sim.data)
  includes[i] = boot.dist[25]<0 & 0<boot.dist[976]
}
mean(includes)     # this tells us the % of CIs that included the true mean
[1] 0.952

Sur quelles hypothèses s'appuie-t-on?
Iarwain

2
Merci. Je pense avoir trouvé ce que je cherchais dans la deuxième réponse à ce fil: "N'oubliez pas que nous n'utilisons pas les moyennes des échantillons bootstrap pour estimer la moyenne de la population, nous utilisons la moyenne de l'échantillon pour cela (ou quelle que soit la statistique d'intérêt Mais nous utilisons les échantillons bootstrap pour estimer les propriétés (étendue, biais) du processus d’échantillonnage et utilisons un échantillonnage d’une population connue (que nous espérons représentative de la population d’intérêt) pour comprendre les effets de l’échantillonnage. et est beaucoup moins circulaire. " ...
lundi

1
... En d'autres termes, tout ce que l'IC nous dit, c'est que dans une population à peu près similaire à la nôtre, nous nous attendrions à ce que 95% des échantillons prélevés dans cette population reflètent la valeur réelle +/- la marge d'erreur. Tout ce que nous faisons est donc de donner un indice très grossier - bien que peut-être le meilleur indice que nous ayons - pour déterminer à quel point notre statistique d'échantillon peut être proche du paramètre de population réel. Si tel est le cas, il semblerait que nous ne devrions pas prendre les chiffres exacts dans l'IC trop au sérieux. Ils veulent simplement dire quelque chose du genre "la statistique de l'échantillon est probablement à peu près exacte à ce degré". Ai-je bien compris?
Iwarwain

1
C'est essentiellement correct. Un IC nous donne une idée de la précision de notre estimation, mais nous ne savons jamais si notre IC réel (réalisé) contient la valeur réelle. La principale hypothèse est que nos données sont représentatives de la population d'intérêt. Notez que ni d' entre eux sont particulièrement bootstrap CIs, vous avez la même interprétation et prise en charge dans une CI calculée par la théorie asymptotique.
Gay - Rétablir Monica

1
C'est une excellente explication. J'ajouterais seulement que la "vraie valeur" est parfois un artefact du plan de l'étude. Dans les sondages pour candidats politiques, les échantillons stratifiés donnent des estimations beaucoup plus précises et fiables qu'un échantillon aléatoire. Le coût est un risque de suréchantillonnage du mauvais groupe par conception. Dans ce cas, l'IC à 95% est centré sur la valeur correcte, celle obtenue en répliquant l'étude à l' infini , mais cette valeur n'est pas l'autre sens d'un paramètre réel: le paramètre que nous souhaitions estimer. C'est pourquoi la conception de l'étude et l'inférence sont intrinsèquement liées.
AdamO

0

Ce que vous dites, c'est qu'il n'est pas nécessaire de trouver un intervalle de confiance à partir des rééchantillons initialisés. Si vous êtes satisfait de la statistique (moyenne ou proportion d'échantillon) obtenue à partir de rééchantillons bootstrapped, ne trouvez pas d'intervalle de confiance ni d'interprétation. Mais si vous n'êtes pas satisfait de la statistique obtenue à partir de rééchantillons bootstrapped ou que vous êtes satisfait, mais que vous souhaitez tout de même trouver l'intervalle de confiance, l'interprétation de cet intervalle de confiance est identique à celle de tout autre intervalle de confiance. C'est parce que lorsque vos ré-échantillons bootstrapés représentent exactement (ou sont supposés être ainsi) la population d'origine, alors où est le besoin d'intervalle de confiance? La statistique des rééchantillons initialisés est le paramètre de population d'origine lui-même, mais si vous ne la considérez pas comme le paramètre de population d'origine, vous devez rechercher l'intervalle de confiance. Donc, tout dépend de la façon dont vous considérez. Supposons que vous ayez calculé un intervalle de confiance de 95% à partir de rééchantillons initialisés. À présent, l'interprétation est la suivante: "95% du temps, cette méthode bootstrap donne précisément un intervalle de confiance contenant le paramètre de population réel".

(C'est ce que je pense. Corrigez-moi s'il y a des erreurs).


-1

Nous faisons référence au vrai paramètre de la population d'origine. Il est possible de faire cela en supposant que les données ont été tirées de manière aléatoire à partir de la population d'origine - dans ce cas, il existe des arguments mathématiques indiquant que les procédures de bootstrap donneront un intervalle de confiance valide, du moins à mesure que la taille de l'ensemble de données devient suffisamment grande. .


Il semble donc que pour comprendre pourquoi cela fonctionne, je dois maîtriser suffisamment de mathématiques pour suivre les preuves mathématiques. Est-ce exact?
Iwarwain

Je pense que oui (je ne connais pas les preuves)
Gareth

Intuitivement, vous pouvez voir que lorsque la taille de l’échantillon devient importante, l’échantillon commence à ressembler beaucoup à la population. Par exemple, supposons que je prenne 1 million d'échantillons d'une distribution normale avec une moyenne et une variance données. Appelez cet échantillon X. Un échantillon aléatoire (avec remplacement) tiré de X ressemble beaucoup à un échantillon aléatoire tiré de la distribution d'origine. Je pense que ceci est l'idée de base de pourquoi cela fonctionne.
Gareth
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.