Intro Comme @vqv l'a mentionné La variation totale et Kullback Leibler sont deux distances intéressantes. Le premier est significatif car il peut être directement lié aux erreurs de premier et de second type dans les tests d'hypothèse. Le problème avec la distance de variation totale est qu'elle peut être difficile à calculer. La distance Kullback Leibler est plus facile à calculer et j'y reviendrai plus tard. Il n'est pas symétrique mais peut être rendu symétrique (en quelque sorte un peu artificiellement).
Réponse Quelque chose que je mentionne ici est que siL est le rapport de vraisemblance logarithmique entre vos deux mesures gaussiennes P0,P1 (dis que pour i=0,1 Pi a signifie μi et covariance Ci) mesure d'erreur qui est également entrecroisée (dans le cas gaussien, je l'ai trouvé assez central en fait) est
∥ L∥2L2(P1 / 2)
pour un bien choisi .P1 / 2
En termes simples :
- il peut y avoir différentes rotations "directions" intéressantes, qui sont obtenues en utilisant votre formule avec l'une des matrices de covariance "interpolées" ( ou ) défini à la fin de ce post (le chiffre est celui que vous proposez dans votre commentaire à votre question). Σ =Ci , 1 / deuxi = 1 , 2 , 3 , 455
- comme vos deux distributions ont des covariances différentes, il ne suffit pas de comparer les moyennes , il faut aussi comparer les covariances.
Permettez-moi de vous expliquer pourquoi c'est mon sentiment, comment vous pouvez calculer cela dans le cas de et comment choisir .C1≠C0P1 / 2
Cas linéaire Si .C1=C0= Σ
σ= ΔΣ- 1Δ = ∥ 2 L∥2L2(P1 / 2)
où est l '"interpolation" entre et (gaussien avec covariance et moyenne ). Notez que dans ce cas, la distance Hellinger, la distance de variation totale peut être écrite en utilisant .P1 / 2P1P0Σ(μ1+μ0) / 2σ
Comment calculer dans le cas généralL Une question naturelle qui découle de votre question (et de la mienne ) est de savoir ce qu'est une "interpolation" naturelle entre et lorsque . Ici, le mot naturel peut être spécifique à l'utilisateur, mais par exemple, il peut être lié à la meilleure interpolation pour avoir une limite supérieure étroite avec une autre distance (par exemple, la distance ici )P1P0C1≠C0L1
Écriture
( ) peut aider à voir où est la tâche d'interpolation, mais:
L =ϕ(C- 1 / deuxje( x -μje) ) - ϕ (C- 1 / deuxj( x -μj) ) -12Journal(CjeC-j)
i = 0 , j = 1
L(x)=−12⟨Aij(x−sij),x−sij⟩Rp+⟨Gij,x−sij⟩Rp−cij,[1]
avec
Aij=C−i−C−j,Gij=Sijmij,Sij=C−i+C−j2,
cij=18⟨Aijmij,mij⟩Rp+12log|det(C−jCi)|
et
mij=μi−μjandsij=μi+μj2
est plus pertinent à des fins de calcul. Pour tout gaussien de moyenne et de covariance le calcul de partir de l'équation est un peu technique mais faisable. Vous pouvez également l'utiliser pour calculer la distance du leibler de Kulback.P1/2s01C∥L∥2L2(P1/2)1
Quelle interpolation devons-nous choisir (c'est-à-dire comment choisir )P1/2
Il est clairement compris à partir de l'équation qu'il existe de nombreux candidats différents pour (interpoler) dans le cas "quadratique". Les deux candidats que j'ai trouvés "les plus naturels" (subjectifs :)) résultent de la définition de une distribution gaussienne de moyenne :1P1/2t∈[0,1]Pttμ1+(1−t)μ0
- P1t comme la distribution de (où est tiré de ) qui a la covariance ).
ξt=tξ1+(1−t)ξ0
ξiPi i=0,1Ct,1=(tC1/21+(1−t)C1/20)2
- P2t avec covariance inverseC−1t,2=tC−11+(1−t)C−10
- P3t avec covarianceCt,3=tC1+(1−t)C0
- P4t avec covariance inverseC−1t,4=(tC−1/21+(1−t)C−1/20)2
EDIT: Celui que vous proposez dans un commentaire à votre question pourrait être , pourquoi pas ...Ct,5=Ct1C1−t0
J'ai mon choix préféré qui n'est pas le premier :) je n'ai pas beaucoup de temps pour en discuter ici. Peut-être que je modifierai cette réponse plus tard ...