Certaines différences clés, précédant une explication plus longue ci-dessous, sont les suivantes:
- Point crucial: la distance Jeffries-Matusita s'applique aux distributions plutôt qu'aux vecteurs en général.
- La formule de distance JM que vous citez ci-dessus ne s'applique qu'aux vecteurs représentant des distributions de probabilité discrètes (c'est-à-dire des vecteurs qui totalisent 1).
- Contrairement à la distance euclidienne, la distance JM peut être généralisée à toutes les distributions pour lesquelles la distance Bhattacharrya peut être formulée.
- La distance JM a, via la distance Bhattacharrya, une interprétation probabiliste.
La distance de Jeffries-Matusita, qui semble être particulièrement populaire dans la littérature de télédétection, est une transformation de la distance de Bhattacharrya (une mesure populaire de la dissimilarité entre deux distributions, notée ici ) à partir de la plage à la plage fixe :bp,q[0,inf)[0,2–√]
JMp,q=2(1−exp(−b(p,q))−−−−−−−−−−−−−−−√
Un avantage pratique de la distance JM, selon cet article, est que cette mesure "tend à supprimer les valeurs de séparabilité élevées, tout en surestimant les valeurs de séparabilité faibles".
La distance de Bhattacharrya mesure la dissimilarité de deux distributions et dans le sens continu abstrait suivant:
Si les distributions et sont capturés par des histogrammes, représentés par des vecteurs de longueur unitaire (où le ème élément est le compte normalisé pour ème de cases) cela devient:
Et par conséquent la distance JM pour les deux histogrammes est:
Qui, en notant que pour les histogrammes normaliséspq
b(p,q)=−ln∫p(x)q(x)−−−−−−−√dx
pqiiNb(p,q)=−ln∑i=1Npi⋅qi−−−−−√
JMp,q=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷
∑ipi=1, est la même que la formule que vous avez donnée ci-dessus:
JMp,q=∑i=1N(pi−−√−qi−−√)2−−−−−−−−−−−−−−⎷=∑i=1N(pi−2pi−−√qi−−√+qi)−−−−−−−−−−−−−−−−−−−⎷=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷