Il y a quelques années, j'ai écrit un article à ce sujet pour mes étudiants (en espagnol), afin que je puisse essayer de réécrire ces explications ici. Je vais regarder IRLS (moindres carrés itérativement repondérés) à travers une série d'exemples de complexité croissante. Pour le premier exemple, nous avons besoin du concept d'une famille à l'échelle de l'emplacement. Soit une fonction de densité centrée sur zéro dans un certain sens. On peut construire une famille de densités en définissant
où est un paramètre d'échelle etf0
f(x)=f(x;μ,σ)=1σf0(x−μσ)
σ>0μest un paramètre d'emplacement. Dans le modèle d'erreur de mesure, où le terme d'erreur est généralement modélisé comme une distribution normale, nous pouvons, à la place de cette distribution normale, utiliser une famille à l'échelle de l'emplacement telle que construite ci-dessus. Lorsque est la distribution normale standard, la construction ci-dessus donne la famille .
f0N(μ,σ)
Nous allons maintenant utiliser IRLS sur quelques exemples simples. On trouvera d'abord les estimateurs ML (maximum de vraisemblance) dans le modèle
avec la densité
la distribution de Cauchy la famille d'emplacement (c'est donc une famille d'emplacement). Mais d'abord une notation. L'estimateur des moindres carrés pondérés de est donné par
Y1,Y2,…,Yni.i.d
f(y)=1π11+(y−μ)2,y∈R,
μμ
où
wiest un poids. Nous verrons que l'estimateur ML de
μpeut être exprimée sous la même forme, avec
wiune fonction des résidus
ei=yi - μ .
La fonction de vraisemblance est donnée par
L(y;μ)=(1μ∗=∑ni=1wiyi∑ni=1wi.
wiμwiϵi=yi−μ^.
et la fonction loglik vraisemblance est donnée par
l(y)=-nlog(π)- n ∑ i=1log(1+(yi-μ)2).
Sa dérivée par rapport à
μest
∂ l ( y )L(y;μ)=(1π)n∏i=1n11+(yi−μ)2
l(y)=−nlog(π)−∑i=1nlog(1+(yi−μ)2).
μ
où
ϵi=yi-μ. Écrivez
f0(ϵ)=1∂l(y)∂μ===0−∑∂∂μlog(1+(yi−μ)2)−∑2(yi−μ)1+(yi−μ)2⋅(−1)∑2ϵi1+ϵ2i
ϵi=yi−μ et
f ′ 0 (ϵ)=1f0(ϵ)=1π11+ϵ2 , on obtient
f ′ 0 (ϵ)f′0(ϵ)=1π−1⋅2ϵ(1+ϵ2)2
On trouve
∂ l ( y )f′0(ϵ)f0(ϵ)=−1⋅2ϵ(1+ϵ2)211+ϵ2=−2ϵ1+ϵ2.
où nous avons utilisé la définition
wi= f ′ 0 ( ϵ i )∂l(y)∂μ===−∑f′0(ϵi)f0(ϵi)−∑f′0(ϵi)f0(ϵi)⋅(−1ϵi)⋅(−ϵi)∑wiϵi
En se souvenant que
ϵi=yi-μon obtient l'équation
∑wiyi=μ∑wi,
qui est l'équation d'estimation de l'IRLS. Notez que
wi=f′0(ϵi)f0(ϵi)⋅(−1ϵi)=−2ϵi1+ϵ2i⋅(−1ϵi)=21+ϵ2i.
ϵi=yi−μ∑wiyi=μ∑wi,
- Les poids sont toujours positifs.wi
- Si le résidu est important, nous accordons moins de poids à l'observation correspondante.
μ^(0)
ϵ(0)i=yi−μ^(0)
w(0)i=21+ϵ(0)i.
μ^μ^(1)=∑w(0)iyi∑w(0)i.
ϵ(j)i=yi−μ^(j)
w(j)i=21+ϵ(j)i.
j+1μ^(j+1)=∑w(j)iyi∑w(j)i.
μ^(0),μ^(1),…,μ^(j),…
f(y)=1σf0(y−μσ)Y1,Y2,…,Ynϵi=yi−μσ
l(y)=−n2log(σ2)+∑log(f0(yi−μσ)).
ν=σ2∂ϵi∂μ=−1σ
∂ϵi∂ν=(yi−μ)(1ν−−√)′=(yi−μ)⋅−12σ3.
∂l(y)∂μ=∑f′0(ϵi)f0(ϵi)⋅∂ϵi∂μ=∑f′0(ϵi)f0(ϵi)⋅(−1σ)=−1σ∑f′o(ϵi)f0(ϵi)⋅(−1ϵi)(−ϵi)=1σ∑wiϵi
σ2∂l(y)∂ν=====−n21ν+∑f′0(ϵi)f0(ϵi)⋅∂ϵi∂ν−n21ν+∑f′0(ϵi)f0(ϵi)⋅(−(yi−μ)2σ3)−n21ν−121σ2∑f′0(ϵi)f0(ϵi)⋅ϵi−n21ν−121ν∑f′0(ϵi)f0(ϵi)⋅(−1ϵi)(−ϵi)⋅ϵi−n21ν+121ν∑wiϵ2i=!0.
σ2^=1n∑wi(yi−μ^)2.
Dans ce qui suit, nous donnons un exemple numérique en utilisant R, pour le modèle exponentiel double (avec une échelle connue) et avec des données y <- c(-5,-1,0,1,5)
. Pour ces données, la vraie valeur de l'estimateur ML est 0. La valeur initiale sera mu <- 0.5
. Un passage de l'algorithme est
iterest <- function(y, mu) {
w <- 1/abs(y-mu)
weighted.mean(y,w)
}
avec cette fonction, vous pouvez expérimenter avec faire les itérations "à la main" Ensuite, l'algorithme itératif peut être fait par
mu_0 <- 0.5
repeat {mu <- iterest(y,mu_0)
if (abs(mu_0 - mu) < 0.000001) break
mu_0 <- mu }
tkσ
wi=k+1k+ϵ2i.
w(ϵ)=1−eϵ1+eϵ⋅−1ϵ.
Pour le moment je vais le laisser ici, je vais continuer ce post.