La régression logistique peut être décrite comme une combinaison linéaire
η= β0+ β1X1+ . . . + βkXk
qui est passé par la fonction de lien :g
g( E( Y) ) = η
où la fonction de liaison est une fonction logit
E( Y| X, β) = p = logit- 1( η)
où ne prend que des valeurs dans et les fonctions logit inverses transforment la combinaison linéaire dans cette plage. C'est là que s'arrête la régression logistique classique.{ 0 , 1 } ηOui{ 0 , 1 }η
Cependant, si vous vous souvenez que pour les variables qui ne prennent que des valeurs dans , alors peut être considéré comme . Dans ce cas, la sortie de la fonction logit pourrait être considérée comme une probabilité conditionnelle de "succès", c'est-à-dire . La distribution de Bernoulli est une distribution qui décrit la probabilité d'observer le résultat binaire, avec un paramètre , nous pouvons donc décrire comme{ 0 , 1 } E ( Y | X , β ) P ( Y = 1 | X , β ) P ( Y = 1 | X , β ) p YE( Y) = P( Y= 1 ){ 0 , 1 }E( Y| X, β)P( Y= 1 | X, β)P( Y= 1 | X, β)pOui
yje∼ Bernoulli ( p )
Donc, avec la régression logistique, nous recherchons certains paramètres qui se combinent avec des variables indépendantes forment une combinaison linéaire . Dans la régression classique (nous supposons que la fonction de lien est une fonction d'identité), cependant pour modéliser qui prend des valeurs dans nous devons transformer pour l'adapter dans la plage .X η E ( Y | X , β ) = η Y { 0 , 1 } η [ 0 , 1 ]βXηE( Y| X, β) = ηOui{ 0 , 1 }η[ 0 , 1 ]
Maintenant, pour estimer la régression logistique de manière bayésienne, vous prenez quelques priors pour les paramètres comme avec la régression linéaire (voir Kruschke et al, 2012 ), puis utilisez la fonction logit pour transformer la combinaison linéaire , afin d'utiliser sa sortie comme un paramètre de la distribution de Bernoulli qui décrit votre variableDonc, oui, vous utilisez en fait l'équation et la fonction de lien logit de la même manière que dans le cas fréquentitionniste, et le reste fonctionne (par exemple en choisissant des a priori) comme avec l'estimation de la régression linéaire de la manière bayésienne. η p YβjeηpOui
L'approche simple pour choisir les a priori est de choisir des distributions normales (mais vous pouvez également utiliser d'autres distributions, par exemple la distribution - ou Laplace pour un modèle plus robuste) pour les avec des paramètres et qui sont prédéfinis ou pris des prieurs hiérarchiques . Maintenant, ayant la définition du modèle, vous pouvez utiliser un logiciel tel que JAGS pour effectuer une simulation Markov Chain Monte Carlo pour vous permettre d'estimer le modèle. Ci-dessous, je poste le code JAGS pour un modèle logistique simple ( cliquez ici pour plus d'exemples).β i μ i σ 2 itβjeμjeσ2je
model {
# setting up priors
a ~ dnorm(0, .0001)
b ~ dnorm(0, .0001)
for (i in 1:N) {
# passing the linear combination through logit function
logit(p[i]) <- a + b * x[i]
# likelihood function
y[i] ~ dbern(p[i])
}
}
Comme vous pouvez le voir, le code se traduit directement en définition de modèle. Ce que fait le logiciel, c'est qu'il tire certaines valeurs des valeurs normales pour a
puis b
, il utilise ces valeurs pour estimer p
et enfin, utilise la fonction de vraisemblance pour évaluer la probabilité de vos données compte tenu de ces paramètres (c'est lorsque vous utilisez le théorème de Bayes, voir ici pour description plus détaillée).
Le modèle de régression logistique de base peut être étendu pour modéliser la dépendance entre les prédicteurs à l'aide d'un modèle hiérarchique (y compris les hyperpriors ). Dans ce cas, vous pouvez tirer les de la distribution normale multivariée qui nous permet d'inclure des informations sur la covariance entre des variables indépendantesβjeΣ
⎛⎝⎜⎜⎜⎜β0β1⋮βk⎞⎠⎟⎟⎟⎟∼ M V N ⎛⎝⎜⎜⎜⎜⎜⎡⎣⎢⎢⎢⎢μ0μ1⋮μk⎤⎦⎥⎥⎥⎥, ⎡⎣⎢⎢⎢⎢⎢σ20σ1 , 0⋮σk , 0σ0 , 1σ21⋮σk , 1……⋱…σ0 , kσ1 , k⋮σ2k⎤⎦⎥⎥⎥⎥⎥⎞⎠⎟⎟⎟⎟⎟
... mais cela entre dans les détails, alors arrêtons-nous ici.
La partie "bayésienne" ici consiste à choisir des a priori, en utilisant le théorème de Bayes et en définissant le modèle en termes probabilistes. Voir ici pour la définition du "modèle bayésien" et ici pour une intuition générale sur l'approche bayésienne . Ce que vous pouvez également remarquer, c'est que la définition des modèles est assez simple et flexible avec cette approche.
Kruschke, JK, Aguinis, H., et Joo, H. (2012). Le moment est venu: méthodes bayésiennes pour l'analyse des données en sciences organisationnelles. Méthodes de recherche organisationnelle, 15 (4), 722-752.
Gelman, A., Jakulin, A., Pittau, GM et Su, Y.-S. (2008). Une distribution a priori par défaut faiblement informative pour les modèles logistiques et autres modèles de régression. The Annals of Applied Statistics, 2 (4), 1360–1383.