Mieux vaut tard que jamais. Permettez-moi d'abord d'énumérer trois raisons (je pense importantes) pour lesquelles nous nous concentrons sur l'impartialité asymptotique (cohérence) des estimateurs.
a) La cohérence est un critère minimum. Si un estimateur ne fait pas d'estimation correctement même avec beaucoup de données, à quoi sert-il? C'est la justification donnée dans Wooldridge: Introductory Econometrics.
b) Les propriétés des échantillons finis sont beaucoup plus difficiles à prouver (ou plutôt, les déclarations asymptotiques sont plus faciles). Je fais actuellement des recherches moi-même, et chaque fois que vous pouvez compter sur de grands outils d'échantillonnage, les choses deviennent beaucoup plus faciles. Les lois des grands nombres, les théorèmes de convergence des martingales, etc. sont de bons outils pour obtenir des résultats asymptotiques, mais n'aident pas avec les échantillons finis. Je crois que quelque chose dans ce sens est mentionné dans Hayashi (2000): Econometrics.
c) Si les estimateurs sont biaisés pour les petits échantillons, on peut potentiellement corriger ou au moins améliorer avec les corrections dites de petits échantillons. Celles-ci sont souvent compliquées théoriquement (pour prouver qu'elles améliorent l'estimateur sans la correction). De plus, la plupart des gens acceptent de s'appuyer sur de grands échantillons, de sorte que les corrections de petits échantillons ne sont souvent pas implémentées dans les logiciels de statistiques standard, car seules quelques personnes en ont besoin (celles qui ne peuvent pas obtenir plus de données ET se soucient de l'impartialité). Ainsi, il existe certains obstacles à l'utilisation de ces corrections rares.
Sur vos questions. Qu'entendons-nous par «grand échantillon»? Cela dépend fortement du contexte, et pour des outils spécifiques, il peut être répondu par simulation. Autrement dit, vous générez artificiellement des données et voyez comment, par exemple, le taux de rejet se comporte en fonction de la taille de l'échantillon, ou le biais se comporte en fonction de la taille de l'échantillon. Un exemple spécifique se trouve ici , où les auteurs voient combien de clusters il faut pour que les erreurs standard en cluster OLS, les erreurs standard bootstrapées, etc. fonctionnent correctement. Certains théoriciens ont également des déclarations sur le taux de convergence, mais à des fins pratiques, les simulations semblent être plus informatives.
Faut-il vraiment ? Si c'est ce que dit la théorie, oui, mais dans l'application, nous pouvons accepter un biais petit et négligeable, que nous avons avec des échantillons suffisamment grands avec une probabilité élevée. Ce que signifie suffisamment dépend du contexte, voir ci-dessus.n → ∞
À la question 3: généralement, la question de l'impartialité (pour toutes les tailles d'échantillon) et de la cohérence (impartialité pour les grands échantillons) est considérée séparément. Un estimateur peut être biaisé, mais cohérent, auquel cas, seules les estimations de grands échantillons ne sont pas biaisées. Mais il existe également des estimateurs non biaisés et cohérents, qui sont théoriquement applicables à toute taille d'échantillon. ( Un estimateur peut également être non biaisé mais incohérent pour des raisons techniques. )