Quelle est la relation entre l'estimateur et l'estimation?
Quelle est la relation entre l'estimateur et l'estimation?
Réponses:
EL Lehmann, dans sa théorie classique de l'estimation ponctuelle , répond à cette question aux pp 1-2.
Les observations sont maintenant supposées être les valeurs prises par des variables aléatoires qui sont supposées suivre une distribution de probabilité conjointe, , appartenant à une classe connue ...
... concentrons-nous maintenant sur l'estimation ponctuelle ... supposons que est une fonction à valeur réelle définie [sur la classe de distributions stipulée] et que nous aimerions connaître la valeur de [quelle que soit la distribution réelle dans effet, ]. Malheureusement, , et donc , est inconnu. Cependant, les données peuvent être utilisées pour obtenir une estimation de , une valeur que l'on espère proche de .g θ θ g ( θ ) g ( θ ) g ( θ )
En termes: un estimateur est une procédure mathématique définie qui fournit un nombre (l' estimation ) pour tout ensemble possible de données qu'un problème particulier pourrait produire. Ce nombre est destiné à représenter une propriété numérique définie ( ) du processus de génération de données; nous pourrions appeler cela «l'estimation».
L'estimateur lui-même n'est pas une variable aléatoire: c'est juste une fonction mathématique. Cependant, l'estimation qu'elle produit est basée sur des données qui sont elles-mêmes modélisées comme des variables aléatoires. Cela fait de l' estimation (considérée comme dépendant des données) une variable aléatoire et une estimation particulière pour un ensemble particulier de données devient une réalisation de cette variable aléatoire.
Dans une formulation des moindres carrés ordinaires (conventionnelle), les données sont constituées de paires ordonnées . Les ont été déterminés par l'expérimentateur (il peut s'agir par exemple de quantités de médicament administrées). Chaque (une réponse au médicament, par exemple) est supposé provenir d'une distribution de probabilité qui est normale mais avec une moyenne et une variance inconnues . De plus, on suppose que les moyennes sont liées au via une formule . Ces trois paramètres: , etx i y i μ i σ 2 x i μ i = β 0 + β 1 x i σ β 0 β 1 y i x i ( σ , β 0 , β 1 ) β 0 β 1 cos ( σ + β 2 0 - β 1 ) x--déterminer la distribution sous-jacente de pour toute valeur de . Par conséquent, toute propriété de cette distribution peut être considérée comme une fonction de . Des exemples de telles propriétés sont l'ordonnée à l'origine , la pente , la valeur de , ou même la moyenne à la valeur , qui (selon cette formulation ) doit être .β 0 + 2 β 1
Dans ce contexte OLS, un non-exemple d'estimateur serait une procédure pour deviner la valeur de si était égal à 2. Ce n'est pas un estimateur car cette valeur de est aléatoire (d'une manière complètement distincte de le caractère aléatoire des données): ce n'est pas une propriété (numérique définie) de la distribution, même si elle est liée à cette distribution. (Comme nous venons de le voir, cependant, l' espérance de pour , égale à , peut être estimée.)x y y x = 2 β 0 + 2 β 1
Dans la formulation de Lehmann, presque n'importe quelle formule peut être un estimateur de presque toutes les propriétés. Il n'y a pas de lien mathématique inhérent entre un estimateur et un estimant. Cependant, nous pouvons évaluer - à l'avance - les chances qu'un estimateur soit raisonnablement proche de la quantité qu'il est censé estimer. Les moyens d'y parvenir et la manière de les exploiter font l'objet d'une théorie d'estimation.
En bref: un estimateur est une fonction et une estimation est une valeur qui résume un échantillon observé.
Un estimateur est une fonction qui mappe un échantillon aléatoire à l'estimation du paramètre:
notera que un estimateur denvariables aléatoiresX1,X2,. . . ,Xnest une variable aléatoire Θ . Par exemple, un estimateur est la moyenne de l'échantillon: ¯ X =1
Il pourrait être utile d'illustrer la réponse de whuber dans le contexte d'un modèle de régression linéaire. Disons que vous disposez de données bivariées et que vous utilisez les moindres carrés ordinaires pour arriver au modèle suivant:
Y = 6X + 1
À ce stade, vous pouvez prendre n'importe quelle valeur de X, la connecter au modèle et prédire le résultat, Y. Dans ce sens, vous pourriez penser aux composants individuels de la forme générique du modèle ( mX + B ) comme estimateurs . Les exemples de données (que vous avez vraisemblablement connectés au modèle générique pour calculer les valeurs spécifiques pour m et B ci-dessus) ont fourni une base sur laquelle vous pouvez arriver à des estimations pour m et B respectivement.
Conformément aux points de @ whuber dans notre fil ci-dessous, quelles que soient les valeurs de Y pour lesquelles un ensemble d'estimateurs particulier vous génère sont, dans le contexte de la régression linéaire, considérées comme des valeurs prédites.
(édité - plusieurs fois - pour refléter les commentaires ci-dessous)
Supposons que vous ayez reçu des données et que vous aviez une variable observée appelée thêta. Maintenant, vos données peuvent provenir d'une distribution de données, pour cette distribution, il y a une valeur correspondante de thêta que vous inférez qui est une variable aléatoire. Vous pouvez utiliser le MAP ou la moyenne pour calculer l'estimation de cette variable aléatoire chaque fois que la distribution de vos données change. Ainsi, la variable aléatoire thêta est connue comme une estimation , une valeur unique de la variable non observée pour un type particulier de données.
Alors que l'estimateur est vos données, qui est également une variable aléatoire. Pour différents types de distributions, vous avez différents types de données et donc vous avez une estimation différente et donc cette variable aléatoire correspondante est appelée l' estimateur .