En général, le classificateur Bayes naïf n'est pas linéaire, mais si les facteurs de vraisemblance sont issus de familles exponentielles , le classificateur Bayes naïf correspond à un classificateur linéaire dans un espace d'entités particulier. Voici comment voir cela.p ( xje∣ c )
Vous pouvez écrire n'importe quel classificateur Bayes naïf comme *
p ( c = 1 ∣ x ) = σ( ∑jebûchep ( xje∣ c = 1 )p ( xje∣ c = 0 )+ journalp ( c = 1 )p ( c = 0 )) ,
où est la fonction logistique . Si est issu d'une famille exponentielle, on peut l'écrire commep ( x i ∣ c )σp ( xje∣ c )
p ( xje∣ c ) = hje( xje) exp( u⊤je cϕje( xje) - Aje( uje c) ) ,
et donc
p ( c = 1 ∣ x ) = σ( ∑jew⊤jeϕje( xje) + b ) ,
où
wjeb= uje 1- uje 0,= journalp ( c = 1 )p ( c = 0 )- ∑je( Aje( uje 1) - Aje( uje 0) ) .
Notez que ceci est similaire à la régression logistique - un classifieur linéaire - dans l'espace d'entité défini par le . Pour plus de deux classes, nous obtenons de manière analogue une régression logistique multinomiale (ou softmax) .ϕje
Si est gaussien, alors et nous aurions dû
ϕ i ( x i ) = ( x i , x 2 i ) w i 1p ( xje∣ c )ϕje( xje) = ( xje, x2je)
wje 1wje 2bje= σ- 21μ1- σ- 20μ0,= 2 σ- 20- 2 σ- 21,= journalσ0- journalσ1,
en supposant que .p ( c = 1 ) = p ( c = 0 ) = 12
* Voici comment dériver ce résultat:
p ( c = 1 ∣ x )= p ( x ∣ c = 1 ) p ( c = 1 )p ( x ∣ c = 1 ) p ( c = 1 ) + p ( x ∣ c = 0 ) p ( c = 0 )= 11 + p ( x ∣ c = 0 ) p ( c = 0 )p ( x ∣ c = 1 ) p ( c = 1 )= 11 + exp( - journalp ( x ∣ c = 1 ) p ( c = 1 )p(x∣c=0)p(c=0))=σ(∑ilogp(xi∣c=1)p(xi∣c=0)+logp(c=1)p(c=0))