Autres estimateurs non biaisés que le BLEU (solution OLS) pour les modèles linéaires


15

Pour un modèle linéaire, la solution OLS fournit le meilleur estimateur linéaire sans biais pour les paramètres.

Bien sûr, nous pouvons échanger un biais pour une variance plus faible, par exemple la régression des crêtes. Mais ma question concerne l'absence de parti pris. Existe-t-il d'autres estimateurs quelque peu couramment utilisés, qui sont non biaisés mais avec une variance plus élevée que les paramètres estimés de l'OLS?

Si j'avais un énorme ensemble de données, je pourrais bien sûr le sous-échantillonner et estimer les paramètres avec moins de données et augmenter la variance. Je suppose que cela pourrait être hypothétiquement utile.

C'est plus une question rhétorique, car quand j'ai lu sur les estimateurs BLEUS, une alternative pire n'est pas fournie. Je suppose que fournir des alternatives pires pourrait également aider les gens à mieux comprendre la puissance des estimateurs BLEUS.


Qu'en est-il d'un estimateur du maximum de vraisemblance? Par exemple, si vous pensez que vos données sont échantillonnées à partir d'une distribution avec un paramètre de degré de liberté relativement faible ( t ( 3 ) ou t ( 4 ) peut être caractéristique des rendements financiers), un estimateur du maximum de vraisemblance ne coïnciderait pas avec l'OLS, mais je suppose ce serait toujours impartial. tt(3)t(4)
Richard Hardy


1
@ RichardHardy, j'ai aussi essayé le MLE, avec les résultats que vous attendiez.
Christoph Hanck

Réponses:


19

Un exemple qui me vient à l'esprit est un estimateur GLS qui pondère les observations différemment, bien que cela ne soit pas nécessaire lorsque les hypothèses de Gauss-Markov sont remplies (ce que le statisticien peut ne pas savoir être le cas et donc appliquer toujours appliquer GLS).

Considérons le cas d'une régression de yi , i=1,,n sur une constante pour illustration (se généralise facilement aux estimateurs GLS généraux). Ici, {yi} est supposé être un échantillon aléatoire d'une population de moyenne μ et de variance σ2 .

Ensuite, nous savons que OLS est juste β = ˉ y , la moyenne de l' échantillon. Pour mettre l'accent sur le fait que chaque observation est pondérée avec le poids 1 / n , écrire ce que β = n Σ i = 1 1β^=y¯1/n

β^=i=1n1nyi.
Il est bien connu queVar(β^)=σ2/n.

Maintenant, considérons un autre estimateur qui peut s'écrire

β~=i=1nwiyi,
où les poids sont tels que iwi=1 . Cela garantit que l'estimateur est sans biais, car
E(i=1nwiyi)=i=1nwiE(yi)=i=1nwiμ=μ.
Sa variance dépassera celle de l'OLS à moins quewi=1/npour touti(auquel cas elle se réduira bien sûr à l'OLS), ce qui peut par exemple être montré via un lagrangien:

L=V(β~)λ(iwi1)=iwi2σ2λ(iwi1),
avec dérivées partielles wrtwi2σ2wiλ=0iL/λ=0iwi1=0λwi=wjwi=1/n

Voici une illustration graphique d'une petite simulation, créée avec le code ci-dessous:

yiIn log(s) : NaNs produced

entrez la description de l'image ici

wi=(1±ϵ)/n

Que les trois derniers soient surperformés par la solution OLS n'est pas immédiatement impliqué par la propriété BLUE (du moins pas pour moi), car il n'est pas évident s'ils sont des estimateurs linéaires (et je ne sais pas non plus si le MLE et Huber sont sans biais).

library(MASS)
n <- 100      
reps <- 1e6

epsilon <- 0.5
w <- c(rep((1+epsilon)/n,n/2),rep((1-epsilon)/n,n/2))

ols <- weightedestimator <- lad <- mle.t4 <- huberest <- rep(NA,reps)

for (i in 1:reps)
{
  y <- rnorm(n)
  ols[i] <- mean(y)
  weightedestimator[i] <- crossprod(w,y)  
  lad[i] <- median(y)   
  mle.t4[i] <- fitdistr(y, "t", df=4)$estimate[1]
  huberest[i] <- huber(y)$mu
}

plot(density(ols), col="purple", lwd=3, main="Kernel-estimate of density of OLS and other estimators",xlab="")
lines(density(weightedestimator), col="lightblue2", lwd=3)     
lines(density(lad), col="salmon", lwd=3)     
lines(density(mle.t4), col="green", lwd=3)
lines(density(huberest), col="#949413", lwd=3)
abline(v=0,lty=2)
legend('topright', c("OLS","weighted","median", "MLE t, 4 df", "Huber"), col=c("purple","lightblue","salmon","green", "#949413"), lwd=3)

2
Soigné! Je pense que c'est un exemple illustratif très simple, un peu plus général que celui que j'ai proposé. Lorsque les gens apprennent les estimateurs dans un cadre fréquentiste, je pense que ce genre d'exemples est souvent manquant, ils vous aident vraiment à mieux comprendre le concept.
Gumeo

4
W=i=1nw(ei)eiww(0)=0

1
@kjetilbhalvorsen, j'inclus maintenant également l'estimateur de Huber, qui fait plutôt bien.
Christoph Hanck
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.