Quelle est la logique derrière la méthode des moments?


21

Pourquoi dans "Méthode des moments", nous assimilons les moments de l'échantillon aux moments de la population pour trouver l'estimateur ponctuel?

Où est la logique derrière tout ça?


2
Ce serait bien si nous avions un physicien dans notre communauté pour aborder celui-ci.
mugen

4
@mugen, je ne vois aucun rapport avec la physique.
Aksakal

2
@Aksakal ils utilisent aussi des moments de fonctions en physique, et c'est toujours bien quand quelqu'un fait un parallèle pour une meilleure interprétation.
mugen du

1
Comme mentionné dans cette réponse , la loi des grands nombres fournit une justification (quoique asymptotique) pour estimer un moment de la population par un moment d'échantillon, résultant en des estimateurs
Glen_b -Reinstate Monica

L'idée n'est-elle pas de représenter les paramètres à l'aide de moments? Comme si vous essayez d'estimer le paramètre de la distribution de Poisson, en trouvant la moyenne (premier moment), vous pouvez l'utiliser comme estimateur pour votre paramètre lambda.
denis631

Réponses:


14

Un échantillon composé de réalisations à partir de variables aléatoires distribuées de manière identique et indépendante est ergodique. Dans un tel cas, les «moments d'échantillonnage» sont des estimateurs cohérents des moments théoriques de la distribution commune, si les moments théoriques existent et sont finis. n

Cela signifie que

(1)μ^k(n)=μk(θ)+ek(n),ek(n)p0

Donc, en assimilant le moment théorique avec le moment de l'échantillon correspondant, nous avons

μ^k(n)=μk(θ)θ^(n)=μk1(μ^k(n))=μk1[μk(θ)+ek(n)]

Donc ( ne dépend pas de n )μkn

plimθ^(n)=plim[μk1(μk(θ)+ek)]=μk1(μk(θ)+plimek(n))

=μk1(μk(θ)+0)=μk1μk(θ)=θ

Nous le faisons donc parce que nous obtenons des estimateurs cohérents pour les paramètres inconnus.


que signifie "plim"? Je ne connais pas "p" dans ek(n)p0
utilisateur 31466

@leaf probabilité limit
Alecos Papadopoulos

Que se passerait-il s'il s'agissait d'une limite régulière au lieu d'une limite de probabilité?
utilisateur 31466

Cela nous dirait que l'estimateur devient une constante, non pas qu'il tend à une probabilité. Vous devriez peut-être rechercher des modes de convergence de variables aléatoires, wikipedia a une introduction décente, en.wikipedia.org/wiki/Convergence_of_random_variables
Alecos Papadopoulos

1
@AlecosPapadopoulos D'accord. Je me demande alors s'il est logique de mettre quelque chose de simple comme "... et sous certaines conditions sur "? μk
Jerome Baum

12

T(F)=t(x)dF(x)
F(x)F(x)=x12πσ2exp[(uμ)22σ2]du or the sample Fn(x)=1ni=1n1{xix}, so that dFn(x) is a bunch of delta-functions, and the (Lebesgue) integral with respect to dFn(x) is the sample sum 1ni=1nt(xi). If your functional T() is (weakly) differentiable, and Fn(x) converges in the appropriate sense to F(x), then it is easy to establish that the estimate is consistent, although of course more hoopla is needed to obtain say asymptotic normality.

1
I haven't heard this called "analogy principle", but it is an often used econometric analysis pattern indeed: plug the sample estimator whenever the population parameter is needed but unknown.
Aksakal

@Aksakal:"plug the sample estimator whenever the population parameter is needed but unknown." isn't this approach simply called statistics?
user603

@user603: No, not. There are other alternative approaches, and plu-in estimators can be bad.
kjetil b halvorsen
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.