Calcul de la fonction de lien canonique dans GLM


12

Je pensais que la fonction de lien canonique venait du paramètre naturel de la famille exponentielle. Disons, considérons la famille puis est la fonction de lien canonique. Prenons la distribution de Bernoulli comme exemple, nous avons Ainsi, la fonction de lien canoniqueg()

f(y,θ,ψ)=exp{yθb(θ)a(ψ)c(y,ψ)}
θ=θ(μ)g(μ)=logμ
P(Y=y)=μy(1μ)1y=exp{ylogμ1μ+log(1μ)}
g(μ)=logμ1μ

Mais quand je vois cette diapositive , il prétend que Bien qu'il puisse être facilement vérifié pour cette distribution particulière (et certaines autres distributions, comme la distribution de Poisson), Je ne vois pas l'équivalence pour le cas général. Quelqu'un peut-il donner des indices? Merci ~

g(μ)=1V(μ)

Réponses:


14

La fonction de variance pour la variable de Bernoulli est . On vérifie facilement qu'avec le lien canonique puis g ( μ ) = log μV(μ)=μ(1μ)g(μ)=1g(μ)=logμ1μ=logμlog(1μ)

g(μ)=1μ+11μ=1μ+μμ(1μ)=1μ(1μ)=1V(μ).

Pour le cas général, on dérive de la définition que voir par exemple page 28-29 dans McCullagh et Nelder . Avec le lien canonique, nous avons , et la fonction de variance est définie comme , qui en termes de devient Par différenciation de l'identité on obtient

E(Y)=μ=b(θ) and Var(Y)=b(θ)a(ψ),
gθ=g(μ)=g(b(θ))b(θ)μ
V(μ)=b(g(μ)).
θ=g(b(θ))
1=g(b(θ))b(θ)=g(μ)V(μ),

Dans la construction des fonctions quasi-vraisemblance il est naturel de commencer par la relation entre la moyenne et la variance, donnée en termes de la fonction de la variance . Dans ce contexte, l'anti-dérivé de peut être interprété comme une généralisation de la fonction de lien, voir par exemple la définition de la quasi-vraisemblance (log) à la page 325 (formule 9.3 ) dans McCullagh et Nelder . V ( μ ) - 1VV(μ)1


Merci @NRH. En fait, je connais l'équivalence de la distribution de Bernoulli. Je me demande le cas général. Et merci pour votre référence, je vais le vérifier :)
ziyuang

@ziyuang, le cas général est maintenant inclus.
NRH

1
@NRH - juste pour ajouter à cette réponse, les formules de moyenne et de variance peuvent être dérivées en différenciant l'équation deux côtés par rapport à (ou de manière équivalente ). La première dérivée vous donne la moyenne, la seconde vous donne la variance. θ μf(y,θ,ψ)dy=1θμ
probabilitéislogic

Je vous remercie. Et j'ai trouvé un autre lien de référence: fedc.wiwi.hu-berlin.de/xplore/ebooks/html/spm/…
ziyuang
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.