Par la loi (faible / forte) des grands nombres, étant donné certains points d'échantillonnage iid d'une distribution, leur moyenne d'échantillon converge vers la moyenne de distribution en probabilité et en tant que taille d'échantillon va à l'infini.
Lorsque la taille de l'échantillon est fixe, je me demande si l'estimateur LLN est le meilleur estimateur dans un certain sens? Par exemple,
- son attente est la moyenne de distribution, c'est donc un estimateur non biaisé. Sa variance est où est la variance de distribution. Mais est-ce UMVU?
existe-t-il une fonction telle que résoudre le problème de minimisation:
En d'autres termes, est la meilleure fonction de contraste dans le cadre de contraste minimum (cf. Section 2.1 "Heuristique de base de l'estimation" dans " Statistiques mathématiques: idées de base et sujets sélectionnés, Volume 1 " par Bickle et Doksum).
Par exemple, si la distribution est connue / restreinte pour être de la famille des distributions gaussiennes, alors la moyenne de l'échantillon sera l'estimateur MLE de la moyenne de distribution, et MLE appartient au cadre de contraste minimum, et sa fonction de contraste est moins la probabilité logarithmique une fonction.
existe-t-il une fonction telle que résout le problème de minimisation: pour toute distribution de au sein d'une famille de distributions?
En d'autres termes, est la meilleure par rapport à une fonction perdue et à une famille de distributions dans le cadre théorique de décision (cf. Section 1.3 "Le cadre théorique de décision" dans " Statistiques mathématiques: idées de base et sujets choisis, Volume 1 " par Bickle et Doksum).
Notez que ce qui précède sont trois interprétations différentes pour une "meilleure" estimation que j'ai connue jusqu'à présent. Si vous connaissez d'autres interprétations possibles qui peuvent s'appliquer à l'estimateur LLN, n'hésitez pas à le mentionner également.