Pourquoi les sondages politiques ont-ils une aussi grande taille d'échantillon?


32

Quand je regarde les nouvelles, j'ai remarqué que les sondages Gallup sur des sujets tels que les élections présidentielles avaient [je suppose des échantillons aléatoires] de plus de 1 000 échantillons. D'après ce que je me souviens des statistiques des collèges, une taille d'échantillon de 30 était un échantillon "considérablement grand". Il a semblé qu’une taille d’échantillon de plus de 30 ans était inutile en raison de rendements décroissants.


9
Enfin, quelqu'un est ici pour parler des nouveaux vêtements de l'empereur de Big Data. Qui a besoin des 600 millions d'utilisateurs de Tweeter si vous pouvez obtenir toutes les réponses à partir de la taille de l'échantillon statistique de l'université de 30.
StasK

1
StasK, c'est hilarant.
Aaron Hall

Meilleur commentaire @StasK
Brennan le

Réponses:


36

Wayne a assez bien traité le problème des "30" (ma règle de base: la mention du chiffre 30 en relation avec les statistiques est probablement erronée).

Pourquoi les nombres proches de 1000 sont souvent utilisés

Des nombres d’environ 1000-2000 sont souvent utilisés dans les enquêtes, même dans le cas d’une proportion simple (" Êtes-vous en faveur de que ce soit><> ?").

Ceci est fait de manière à obtenir des estimations raisonnablement précises de la proportion.

Si l’échantillonnage binomial est supposé, l’erreur type * de la proportion de l’échantillon est la plus grande lorsque la proportion est - mais cette limite supérieure reste une assez bonne approximation pour des proportions comprises entre environ 25% et 75%.12

* "erreur type" = "écart type de la distribution de"

Un objectif commun est d’estimer les pourcentages à environ du pourcentage réel, environ du temps. Ce est appelé la « marge d'erreur ».95 % 3 %±3%95%3%

Dans le pire des cas, l'erreur type sous échantillonnage binomial entraîne les conséquences suivantes:

1.96×12(112)/n0.03

0.98×1/n0.03

n0.98/0.03

n1067.11

... ou "un peu plus de 1000".

Ainsi, si vous interrogez au hasard 1 000 personnes dans la population pour laquelle vous souhaitez tirer des conclusions et que 58% de l'échantillon souscrit à la proposition, vous pouvez être raisonnablement certain que la proportion de la population se situe entre 55% et 61%.

(Parfois, vous pouvez utiliser d'autres valeurs pour la marge d'erreur, telles que 2,5%. Si vous divisez par deux la marge d'erreur, la taille de l'échantillon augmente d'un multiple de 4.)

Dans les enquêtes complexes nécessitant une estimation précise de la proportion dans une sous-population (par exemple, la proportion de Noirs diplômés du Texas favorables à la proposition), les chiffres peuvent être suffisamment importants pour que ce sous-groupe compte plusieurs centaines. entraînant des dizaines de milliers de réponses au total.

Comme cela peut rapidement devenir impraticable, il est courant de scinder la population en sous-populations (strates) et de les échantillonner séparément. Malgré tout, vous pouvez vous retrouver avec de très grands sondages.

Il a semblé qu’une taille d’échantillon de plus de 30 ans était inutile en raison de rendements décroissants.

Cela dépend de la taille de l'effet et de la variabilité relative. L’effet sur la variance signifie que vous aurez peut-être besoin d’échantillons assez volumineux dans certaines situations.n

J'ai répondu à une question ici (je pense que c'était d'un ingénieur) qui traitait d'échantillons très volumineux (de l'ordre d'un million, si je me souviens bien), mais il cherchait de très petits effets.

Voyons ce que nous laisse un échantillon aléatoire avec une taille d'échantillon de 30 lors de l'estimation d'une proportion d'échantillon.

Imaginons que nous demandions à 30 personnes si, dans l'ensemble, elles ont approuvé le discours sur l'état de l'Union (fortement d'accord, d'accord, pas d'accord, pas du tout d'accord). En outre, imaginez que l’intérêt réside dans la proportion de personnes qui sont d’accord ou fortement d’accord.

Disons que 11 des personnes interrogées étaient d’accord et 5 d’accord, sur un total de 16.

16/30 soit environ 53%. Quelles sont nos limites pour la proportion dans la population (avec un intervalle de 95% par exemple)?

Nous pouvons fixer la proportion de la population entre 35% et 71% (environ), si nos hypothèses se vérifient.

Pas si utile que ça.


+1 La réponse dans son ensemble est excellente, mais la première ligne valait un vote positif en soi.
Matt Krause

1
Vous pouvez bien sûr inverser le calcul et calculer la marge d'erreur avec un échantillon de 30 ...
Calimo

Votre dernier paragraphe porte sur l’échantillonnage stratifié, je crois. Comme d'autres l'ont dit, un simple échantillonnage aléatoire de la population des électeurs éligibles ne se fait pas vraiment à l'échelle nationale.
Wayne

@Wayne merci; Je suis retourné et ajouté un peu à la fin.
Glen_b -Reinstate Monica

2
+1, et j'aime aussi les implications paradoxales de votre règle générale.
James Stanley

10

Cette règle empirique suggère que 30 points suffisent pour supposer que les données sont distribuées normalement (c’est-à-dire qu’elles ressemblent à une courbe en cloche), mais il s’agit, au mieux, d’une directive approximative. Si cela compte, vérifiez vos données! Cela suggère que vous voudriez au moins 30 répondants pour votre sondage si votre analyse repose sur ces hypothèses, mais il y a aussi d'autres facteurs.

Un facteur important est la "taille de l'effet". La plupart des races ont tendance à être assez proches, de sorte que des échantillons assez grands sont nécessaires pour détecter ces différences de manière fiable. (Si vous souhaitez déterminer la "bonne" taille d'échantillon, vous devez vous pencher sur l' analyse de la puissance ). Si vous avez une variable aléatoire de Bernoulli (quelque chose avec deux résultats) qui est d'environ 50:50, vous avez besoin d'environ 1 000 essais pour réduire l'erreur-type à 1,5%. C’est probablement assez précis pour prédire le résultat d’une course (les 4 dernières élections présidentielles américaines avaient une marge moyenne d’environ 3,2%), ce qui correspond bien à votre observation.

Les données du sondage sont souvent tranchées et coupées en dés de différentes manières: "Le candidat est-il en tête des hommes propriétaires d'armes à feu de plus de 75 ans?" ou peu importe. Cela nécessite des échantillons encore plus grands, car chaque répondant ne correspond qu'à quelques-unes de ces catégories.

Les sondages présidentiels sont parfois "groupés" avec d'autres questions d'enquête (par exemple, les courses du Congrès). Celles-ci variant d'un état à l'autre, on se retrouve avec des données d'interrogation "supplémentaires".


Les distributions de Bernoulli sont des distributions de probabilité discrètes n'ayant que deux résultats: l'option 1 est choisie avec la probabilité , tandis que l'option 2 est choisie avec la probabilité .p1p

La variance d'une distribution de bernoulli est , ainsi l'erreur standard de la moyenne est . Branchez (l'élection est une égalité), réglez l'erreur standard sur 1,5% (0,015) et résolvez. Vous aurez besoin de 1 111 sujets pour atteindre 1,5% SE.p(1p)p(1p)np=0.5


4
+1, cependant, "30 points suffisent pour supposer que les données sont normalement distribuées" n'est pas vrai. Il se peut bien que les gens le croient, mais la quantité de données nécessaire au CLT pour que la distribution d'échantillonnage converge correctement vers une normale dépend de la nature de la distribution des données (voir ici ). Au lieu de cela, 30 (peut être) assez environ si les données sont déjà normales, mais la SD est estimée à partir du même ensemble de données (cf. la distribution t).
gung - Rétablir Monica

@Gung, totalement d'accord, mais je ne voulais pas aller trop loin des rails. N'hésitez pas à en éditer plus si vous pensez que le point devrait être encore plus clair.
Matt Krause

8

Il existe déjà d’excellentes réponses à cette question, mais je voudrais expliquer pourquoi l’erreur type est ce qu’elle est, pourquoi nous utilisons dans le cas le plus défavorable et comment l’erreur type varie avec .p=0.5n

Supposons que nous ne prenions un sondage que pour un seul électeur, appelons-le 1 et demandons "Voterez-vous pour le Parti pourpre?" Nous pouvons coder la réponse en tant que 1 pour "oui" et 0 pour "non". Disons que la probabilité d'un "oui" est . Nous avons maintenant une variable aléatoire binaire qui est 1 avec la probabilité et 0 avec la probabilité . Nous disons que est une variable de Bernouilli avec une probabilité de succès , que nous pouvons écrire . Le prévu, ou moyen,pX1p1pX1pX1Bernouilli(p)X1E(X1)=xP(X1=x)xX1. Mais il n'y a que deux résultats, 0 avec la probabilité et 1 avec la probabilité , donc la somme est simplement . Arrêtez-vous et réfléchissez. Cela semble tout à fait raisonnable - s'il y a 30% de chances que l'électeur 1 soutienne le parti Purple, et que nous avons codifié la variable comme étant 1 si elles disent "oui" et 0 si elles disent "non", nous le ferions. s'attendre à ce que soit 0,3 en moyenne.1ppE(X1)=0(1p)+1(p)=pX1

Pensons ce qui se passe, nous . Si alors et si alors . Donc, en fait, dans les deux cas. Puisqu'ils sont identiques, ils doivent avoir la même valeur attendue, donc . Cela me donne un moyen simple de calculer la variance d’une variable de Bernouilli: j’utilise et donc l’écart type est .X1X1=0X12=0X1=1X12=1X12=X1E(X12)=pVar(X1)=E(X12)E(X1)2=pp2=p(1p)σX1=p(1p)

Évidemment, je veux parler à d’autres électeurs - appelons-les électeurs 2, 3, jusqu’à l’électeur . Supposons qu'ils ont tous la même probabilité de soutenir le Parti pourpre. Maintenant nous avons variables de Bernouilli, , à , avec chaque pour de 1 à . Ils ont tous la même moyenne, , et la même variance, .npnX1X2XnXiBernoulli(p)inpp(1p)

J'aimerais savoir combien de personnes dans mon échantillon ont répondu "oui" et, pour ce faire, je peux simplement additionner tous les . Je vais écrire . Je peux calculer la valeur moyenne ou attendue de en utilisant la règle suivante: si ces attentes existent, et en étendant cela à . Mais je additionne de ces attentes, et chacune est , donc j’obtiens au total queXiX=i=1nXiXE(X+Y)=E(X)+E(Y)E(X1+X2++Xn)=E(X1)+E(X2)++E(Xn)npE(X)=np. Arrêtez-vous et réfléchissez. Si j'interroge 200 personnes et que chacune a 30% de chances d'affirmer qu'elles soutiennent le parti violet, je m'attendrais bien entendu à ce que 0,3 x 200 = 60 personnes disent "oui". Donc, la formule semble juste. Moins "évident" est comment gérer la variance.np

Il existe une règle qui dit mais je ne peux l'utiliser que si mes variables aléatoires sont indépendantes les unes des autres . Tellement bien, faisons cette hypothèse, et par une logique similaire à celle d’avant, je peux voir que . Si une variable est la somme de essais de Bernoulli indépendants , avec une probabilité de succès identique , nous disons que a une distribution binomiale, . Nous venons de montrer que la moyenne d'une telle distribution binomiale est et que la variance est .

Var(X1+X2++Xn)=Var(X1)+Var(X2)++Var(Xn)
Var(X)=np(1p)Xn pXXBinomial(n,p)npnp(1p)

Notre problème initial était de savoir comment estimer partir de l'échantillon. La façon sensée de définir notre estimateur est . Par exemple, sur 64 personnes sur notre échantillon de 200 personnes ont répondu "oui", nous estimons que 64/200 = 0,32 = 32% des personnes déclarent soutenir le Parti pourpre. Vous pouvez voir que est une version « allégée » de notre nombre total de oui-électeurs, . Cela signifie que c'est toujours une variable aléatoire, mais qu'elle ne suit plus la distribution binomiale. Nous pouvons trouver la moyenne et la variance, parce que quand nous escaladons une variable aléatoire par un facteur constant alors il obéit aux règles suivantes: ( de sorte que les échelles moyennes par le même facteur ) etpp^=X/np^XkE(kX)=kE(X)kVar(kX)=k2Var(X) . Notez comment la variance augmente de . Cela a du sens lorsque vous savez qu'en général, la variance est mesurée dans le carré des unités dans lesquelles la variable est mesurée: ce n’est pas applicable ici, mais si notre variable aléatoire avait été une hauteur en cm, la variance serait en quelle échelle différemment - si vous doublez les longueurs, vous quadruplerez la surface.k2cm2

Ici, notre facteur d’échelle est . Cela nous donne . C'est bien! En moyenne, notre estimateur est exactement ce qu'il "devrait" être, la probabilité réelle (ou de population) qu'un électeur aléatoire déclare qu'il votera pour le Parti pourpre. Nous disons que notre estimateur est impartial . Mais même s’il est correct en moyenne, il sera parfois trop petit et parfois trop haut. Nous pouvons voir à quel point cela risque d’être erroné en regardant sa variance. . L’écart type est la racine carrée,1nE(p^)=1nE(X)=npn=pp^Var(p^)=1n2Var(X)=np(1p)n2=p(1p)np(1p)net parce que cela nous donne une idée de la mauvaise qualité de notre estimateur (il s’agit en fait d’une erreur fondamentale moyenne , une méthode de calcul de l’erreur moyenne qui traite les erreurs positives et négatives de la même manière, en les comparant au carré avant d’établir une moyenne). , on l’appelle généralement l’ erreur type . Une bonne règle empirique, qui fonctionne bien pour les grands échantillons et qui peut être traitée de manière plus rigoureuse en utilisant le célèbre théorème de la limite centrale , est que la plupart du temps (environ 95%), l'estimation sera fausse de moins de deux erreurs types.

Comme il apparaît dans le dénominateur de la fraction, des valeurs plus élevées de - plus grands échantillons - rendent l'erreur type plus petite. C'est une bonne nouvelle, car si je veux une petite erreur type, je veux que la taille de l'échantillon soit assez grande. La mauvaise nouvelle est que est à l’intérieur d’une racine carrée. Par conséquent, si je quadruplais la taille de l’échantillon, je ne ferais que réduire de moitié l’erreur standard. De très petites erreurs types vont impliquer des échantillons très très volumineux, donc coûteux. Il y a un autre problème: si je veux cibler une erreur type particulière, disons 1%, alors je dois savoir quelle valeur de utiliser dans mon calcul. Je pourrais utiliser des valeurs historiques si j'ai des données de sondage antérieures, mais j'aimerais me préparer au pire des cas. Quelle valeur dennppest le plus problématique? Un graphique est instructif.

graphique de sqrt (p (1-p))

L'erreur type la plus défavorable (la plus élevée) se produira lorsque . Prouver que je pourrais utiliser le calcul, mais une algèbre de lycée fera l'affaire, tant que je saurai comment " compléter le carré ". p=0.5

p(1p)=pp2=14(p2p+14)=14(p12)2

L'expression est que les crochets sont au carré, donc retournera toujours une réponse nulle ou positive, qui sera ensuite enlevée à un quart. Dans le pire des cas (grande erreur type), le moins possible est enlevé. Je sais que le moins que l'on puisse soustraire est zéro, et cela se produira lorsque , donc lorsque . Le résultat de cela est que j'obtiens de plus grandes erreurs-types lorsque j'essaie d'estimer le soutien aux partis politiques par exemple à près de 50% du vote, et des erreurs-types plus faibles pour estimer le soutien aux propositions qui sont sensiblement plus ou moins populaires que cela. En fait, la symétrie de mon graphique et de mon équation m’indique que j’obtiendrais la même erreur type pour mes estimations du soutien du Parti pourpre, qu’il bénéficie d’un soutien populaire de 30% ou de 70%.p12=0p=12

Alors, combien de personnes dois-je interroger pour maintenir l’erreur type inférieure à 1%? Cela signifierait que, la grande majorité du temps, mon estimation sera à 2% de la proportion correcte. Je sais maintenant que l’erreur standard la plus défavorable est ce qui me donne et ainsi de suite . Cela expliquerait pourquoi vous voyez des sondages parmi des milliers.0.25n=0.5n<0.01n>50n>2500

En réalité, une erreur type faible ne garantit pas une bonne estimation. De nombreux problèmes de sondage sont de nature pratique plutôt que théorique. Par exemple, j’ai supposé que l’échantillon était constitué d’électeurs aléatoires ayant chacun la même probabilité , mais le fait de prendre un échantillon "aléatoire" dans la vie réelle présente de nombreuses difficultés. Vous pouvez essayer de voter par téléphone ou en ligne - mais non seulement tout le monde n’a pas un téléphone ou un accès Internet, mais ceux qui ne le font pas peuvent avoir des données démographiques (et des intentions de vote) très différentes de celles des autres. Pour éviter d’introduire un biais dans leurs résultats, les sociétés de sondage effectuent toutes sortes de pondérations complexes de leurs échantillons, et non la simple moyennepXinque j'ai pris. De plus, les gens mentent aux sondeurs! Les différentes manières dont les sondeurs ont compensé cette possibilité sont évidemment controversées. Vous pouvez voir une variété d’approches dans la manière dont les entreprises de sondage ont traité le soi-disant Shy Tory Factor au Royaume-Uni. Une méthode de correction a consisté à examiner comment les gens dans le passé avaient voté pour juger de la plausibilité de leur intention de vote déclarée, mais il s'avère que même s'ils ne mentent pas, de nombreux électeurs ne parviennent tout simplement pas à se souvenir de leur histoire électorale . Lorsque vous avez ce problème, il est franchement très inutile de réduire "l'erreur type" à 0,00001%.

Pour finir, voici quelques graphiques montrant comment la taille de l’échantillon requise - selon mon analyse simpliste - est influencée par l’erreur-type souhaitée et comment la valeur "pessimale" de est comparée aux proportions plus raisonnables. Rappelez-vous que la courbe pour serait identique à celle de raison de la symétrie du graphique précédent de p=0.5p=0.7p=0.3p(1p)

Graphique des tailles d'échantillon requises pour différentes erreurs-types souhaitées


L'échelle log10 sur l'axe des y pourrait être utile ici.
EngrStudent

7

La règle "au moins 30" est traitée dans une autre publication sur Cross Validated. C'est une règle de base, au mieux.

Lorsque vous pensez à un échantillon censé représenter des millions de personnes, vous devrez disposer d'un échantillon beaucoup plus large que 30 personnes. Intuitivement, 30 personnes ne peuvent même pas inclure une personne de chaque État! Pensez ensuite que vous voulez représenter les républicains, les démocrates et les indépendants (au moins), et pour chacun de ceux-ci, vous voudrez représenter deux catégories d'âge différentes, et pour chacune de ces catégories de revenus différentes.

Avec seulement 30 personnes appelées, vous allez manquer d'énormes quantités de données démographiques que vous devez échantillonner.

EDIT2: [J'ai supprimé le paragraphe auquel Abaumann et StasK ont fait objection. Je ne suis toujours pas convaincu à 100%, mais surtout l'argument de StasK avec lequel je ne peux pas ne pas être en désaccord.] Si les 30 personnes sont vraiment sélectionnées au hasard parmi tous les électeurs éligibles, l'échantillon serait valide dans un sens, mais trop petit pour vous permettent de distinguer si la réponse à votre question était réellement vraie ou fausse (parmi tous les électeurs éligibles). StasK explique à quel point ce serait mauvais dans son troisième commentaire, ci-dessous.

EDIT: En réponse au commentaire de samplesize999, il existe une méthode formelle permettant de déterminer la taille suffisante, appelée " analyse de puissance ", qui est également décrite ici . Le commentaire d'abaumann montre qu'il existe un compromis entre votre capacité à distinguer les différences et la quantité de données dont vous avez besoin pour apporter certaines améliorations. Comme il l’illustre, le calcul a une racine carrée dans le calcul, ce qui signifie que l’avantage (en termes d’augmentation de la puissance) augmente de plus en plus lentement ou que le coût (en nombre d’échantillons supplémentaires dont vous avez besoin) augmente de plus en plus rapidement. assez d'échantillons, mais pas plus.


2
"L'intérêt d'un échantillon - sa validité même - est qu'il reflète la population et non qu'il soit aléatoire." C'est manifestement faux! La validité (au sens de généralisabilité) découle exactement du caractère aléatoire de la procédure d'échantillonnage. Le cas est plutôt que, comme vous êtes intéressé par de très petites marges, vous avez besoin d’une estimation précise nécessitant un échantillon de grande taille.
Abaumann

3
@abaumann: Autant que je sache, la randomisation n'a pas de magie: c'est simplement le moyen le plus objectif que nous ayons de créer des échantillons reflétant la population. C'est pourquoi nous pouvons utiliser la randomisation dans les strates, ou utiliser la stratification et la pondération pour tenter de compenser la randomisation pas si grande.
Wayne

2
samplesize: Cela n'a rien à voir avec rien d'être un "expert". Par exemple, les candidats à la présidence des États-Unis organisent des "sondages de suivi" hebdomadaires et quotidiens au cours de leurs campagnes. Ces sondages ne concernent que 200 à 300 personnes. Ces tailles d’échantillons fournissent un juste équilibre entre coût et information. À l’autre extrême, certaines études sur la santé telles que NHANES recrutent des dizaines, voire des centaines de milliers de personnes, car elles sont indispensables pour produire des informations exploitables d’une valeur telle que les coûts énormes de ces études en valent la peine. Dans les deux cas, les experts déterminent la taille des échantillons.
whuber

2
Techniquement, la généralisation sera valable si l’échantillon est représentatif de la population. L'idée est qu'avoir un échantillon aléatoire garantit que l'échantillon sera représentatif, mais que cela est plus difficile (pas nécessairement impossible) à réaliser si l'échantillon n'est pas aléatoire. FWIW, aucun sondage n’utilise un échantillonnage aléatoire simple.
gung - Réintégrer Monica

1
@sashkello, il existe un terrain d'entente: on peut utiliser un échantillon aléatoire stratifié (essentiellement votre option n ° 1) ou tenter de repondérer / étalonner l'échantillon par la suite. Comme Gung, je pense que la plupart des grandes enquêtes font quelque chose de plus complexe qu'un simple échantillon aléatoire
Matt Krause

0

Beaucoup de bonnes réponses ont déjà été postées. Permettez-moi de suggérer un cadrage différent qui donne la même réponse, mais pourrait renforcer l’intuition.

Tout comme @Glen_b, supposons que nous ayons besoin d'au moins 95% de confiance que la proportion réelle qui est en accord avec une déclaration se situe dans une marge d'erreur de 3%. Dans un échantillon particulier de la population, la proportion réelle est inconnue. Cependant, l'incertitude entourant ce paramètre de succès peut être caractérisée par une distribution bêta .pp

Nous n'avons aucune information préalable sur la distribution de , nous dirons donc que est un antécédent non informé. Ceci est une distribution uniforme de de 0 à 1.ppBeta(α=1,β=1)p

À mesure que nous obtenons des informations auprès des répondants du sondage, nous devons actualiser nos convictions quant à la distribution de . La distribution a posteriori de lorsque nous obtenons les "yes" et les réponses "no" est .ppδyδnpBeta(α=1+δy,β=1+δn)

En supposant le pire scénario où la proportion vraie est de 0,5, nous voulons trouver le nombre de répondants tels que seulement 0,025 de la masse de probabilité soit inférieure à 0,47 et 0,025 de la masse de probabilité supérieure à 0,53 (à prendre en compte). pour la confiance de 95% dans notre marge d'erreur de 3%). À savoir, dans un langage de programmation tel que R, nous voulons déterminer le tel que nous obtenions une valeur de 0,47.n=δy+δnnqbeta(0.025, n/2, n/2)

Si vous utilisez , vous obtenez:n=1067

> qbeta(0.025, 1067/2, 1067/2) [1] 0.470019

ce qui est notre résultat souhaité.

En résumé, 1 067 répondants qui se répartissent également entre les réponses «oui» et «non» nous donneraient une confiance de 95% que la proportion réelle de répondants «oui» se situe entre 47% et 53%.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.