En règle générale, une petite taille d'échantillon n'augmentera pas le taux d'erreur de type I pour la simple raison que le test est conçu pour contrôler le taux de type I. (Il existe des exceptions techniques mineures associées à des résultats discrets, qui peuvent empêcher le taux nominal de type I d'être atteint précisément, en particulier avec de petits échantillons.)
Il y a un principe important ici: si votre test a une taille acceptable (= taux nominal de type I) et une puissance acceptable pour l'effet que vous recherchez, alors même si la taille de l'échantillon est petite, c'est ok.
Le danger est que si nous en savons autrement peu sur la situation - peut-être que ce sont toutes les données que nous avons - alors nous pourrions être préoccupés par les erreurs de "Type III": c'est-à-dire les spécifications erronées du modèle. Ils peuvent être difficiles à vérifier avec de petits ensembles d'échantillons.
Comme exemple pratique de l'interaction des idées, je partagerai une histoire. Il y a longtemps, on m'a demandé de recommander une taille d'échantillon pour confirmer un nettoyage environnemental. C'était pendant la phase de pré-nettoyage avant d'avoir des données. Mon plan prévoyait d'analyser les quelque 1000 échantillons qui seraient obtenus pendant le nettoyage (pour établir que suffisamment de terre avait été enlevée à chaque emplacement) pour évaluer la moyenne et la variance post-nettoyage de la concentration de contaminants. Ensuite (pour simplifier grandement), j'ai dit que nous utiliserions une formule de manuel - basée sur la puissance et la taille de test spécifiées - pour déterminer le nombre d'échantillons de confirmation indépendants qui seraient utilisés pour prouver que le nettoyage a réussi.
Ce qui a rendu ce moment mémorable, c'est qu'après le nettoyage, la formule a indiqué qu'elle n'utilisait que 3 échantillons. Du coup, ma recommandation n'avait pas l'air très crédible!
La raison de ne nécessiter que 3 échantillons est que le nettoyage était agressif et fonctionnait bien. Il a réduit les concentrations moyennes de contaminants à environ 100 ppm, ce qui est systématiquement inférieur à l'objectif de 500 ppm.
En fin de compte, cette approche a fonctionné parce que nous avions obtenu les 1000 échantillons précédents (bien que de qualité analytique inférieure: ils avaient une plus grande erreur de mesure) pour établir que les hypothèses statistiques formulées étaient en fait bonnes pour ce site. C'est ainsi que le potentiel d'erreur de type III a été géré.
Une autre torsion pour votre considération: sachant que l'agence de réglementation n'approuverait jamais d'utiliser seulement 3 échantillons, j'ai recommandé d'obtenir 5 mesures. Ceux-ci devaient être constitués de 25 échantillons aléatoires de l'ensemble du site, composés par groupes de 5. Statistiquement, il n'y aurait que 5 chiffres dans le test d'hypothèse final, mais nous avons obtenu un pouvoir plus important pour détecter un «point chaud» isolé en prenant 25 échantillons. Cela met en évidence la relation importante entre le nombre de nombres utilisés dans le test et la façon dont ils ont été obtenus. La prise de décision statistique ne se limite pas aux algorithmes avec des nombres!
À mon grand soulagement, les cinq valeurs composites ont confirmé que l'objectif de nettoyage avait été atteint.