Traditionnellement, l'inférence statistique est enseignée dans le contexte des échantillons de probabilité et de la nature de l'erreur d'échantillonnage. Ce modèle constitue la base du test de signification. Cependant, il existe d'autres moyens de modéliser les écarts systématiques par rapport au hasard et il s'avère que nos tests paramétriques (basés sur l'échantillonnage) tendent à être de bonnes approximations de ces alternatives.
Les tests paramétriques des hypothèses reposent sur la théorie de l'échantillonnage pour produire des estimations de l'erreur probable. Si un échantillon d'une taille donnée est prélevé dans une population, la connaissance de la nature systématique de l'échantillonnage rend les tests et les intervalles de confiance significatifs. Avec une population, la théorie de l'échantillonnage n'est tout simplement pas pertinente et les tests n'ont pas de sens au sens traditionnel du terme. L'inférence est inutile, il n'y a rien à déduire, il y a juste la chose ... le paramètre lui-même.
Certains contournent cela en faisant appel aux superpopulations que représente le recensement actuel. Je trouve ces appels peu convaincants - les tests paramétriques reposent sur l’échantillonnage probabiliste et ses caractéristiques. Une population à un moment donné peut être un échantillon d'une population plus importante dans le temps et le lieu. Cependant, je ne vois aucun moyen légitime de soutenir qu'il s'agit d'un échantillon aléatoire (ou plus généralement de toute forme de probabilité). Sans échantillon de probabilité, la théorie de l'échantillonnage et la logique de test traditionnelle ne s'appliquent tout simplement pas. Vous pouvez tout aussi bien tester sur la base d'un échantillon de commodité.
Clairement, pour accepter les tests lors de l'utilisation d'une population, nous devons nous dispenser de la base de ces tests dans les procédures d'échantillonnage. Une façon de le faire est de reconnaître le lien étroit qui existe entre nos tests théoriques de l’échantillon - tels que t, Z et F - et les procédures de randomisation. Les tests de randomisation sont basés sur l'échantillon en question. Si je collecte des données sur le revenu des hommes et des femmes, le modèle de probabilité et la base de nos estimations d'erreur sont des allocations aléatoires répétées des valeurs de données réelles. Je pourrais comparer les différences observées entre les groupes à une distribution basée sur cette randomisation. (Nous le faisons tout le temps dans des expériences, d'ailleurs, où l'échantillonnage aléatoire à partir d'un modèle de population est rarement approprié).
Or, il s’avère que les tests théoriques sur échantillons sont souvent de bonnes approximations des tests de randomisation. Donc, en fin de compte, je pense que les tests des populations sont utiles et significatifs dans ce cadre et peuvent aider à distinguer les variations systématiques des variations aléatoires - comme avec les tests basés sur des échantillons. La logique utilisée pour y arriver est un peu différente, mais cela n’a pas beaucoup d’incidence sur la signification pratique et l’utilisation des tests. Bien sûr, il serait peut-être préférable d’utiliser des tests de randomisation et de permutation directement, étant donné qu’ils sont facilement disponibles avec toute notre puissance de calcul moderne.