La divergence Kullback-Leibler de P par rapport à Q est infinie lorsque P n'est pas absolument continue par rapport à Q , c'est-à-dire lorsqu'il existe un ensemble mesurable A tel que Q ( A ) = 0 et P ( A ) ≠ 0 . De plus la divergence KL n'est pas symétrique, en ce sens qu'en général κ ( P ∣ Q ) ≠ κ ( Q ∣κ(P|Q)PQPQAQ(A)=0P(A)≠0 . Rappelons que
κ ( P ∣ Q ) = ∫ P log ( Pκ(P∣Q)≠κ(Q∣P)
Un moyen de sortir de ces deux inconvénients, toujours basé sur la divergence KL, est d'introduire le point milieu
R=1
κ(P∣Q)=∫Plog(PQ).
Ainsi
Rest une mesure de probabilité, et
Pet
Qsont toujours absolument continue par rapport à
R. On peut donc considérer une "distance" entre
Pet
Q, toujours basée sur la divergence KL mais en utilisant
R, définie comme
η(P,Q)=κ(P∣R)+κ(Q∣R).
Alors
η(PR=12(P+Q).
RPQRPQRη(P,Q)=κ(P∣R)+κ(Q∣R).
est non négatif et fini pour tout
P et
Q ,
η est symétrique dans le sens où
η ( P , Q ) = η ( Q , P ) pour chaque
P et
Q , et
η ( P , Q ) = 0 siff
P = Q .
η(P,Q)PQηη(P,Q)=η(Q,P)PQη(P,Q)=0P=Q
Une formulation équivalente est
η(P,Q)=2log(2)+∫(Plog(P)+Qlog(Q)−(P+Q)log(P+Q)).
Addendum 1 L'introduction du point milieu de et Q n'est pas arbitraire dans le sens où
η ( P , Q ) = min [ κ ( P ∣ ⋅ ) + κ ( Q ∣ ⋅ ) ] ,
où le minimum est supérieur à l'ensemble de mesures de probabilité.PQ
η(P,Q)=min[κ(P∣⋅)+κ(Q∣⋅)],
Addendum 2 @cardinal remarque que est également une divergence f , pour la fonction convexe
f ( x ) = x log ( x ) - ( 1 + x ) log ( 1 + x ) + ( 1 + x ) log ( 2 ) .ηf
f(x)=xlog(x)−(1+x)log(1+x)+(1+x)log(2).