Einige wesentliche Unterschiede, die einer längeren Erklärung vorausgehen, sind folgende:
- Entscheidend: Der Jeffries-Matusita-Abstand gilt eher für Verteilungen als für Vektoren im Allgemeinen.
- Die oben angegebene JM-Distanzformel gilt nur für Vektoren, die diskrete Wahrscheinlichkeitsverteilungen darstellen (dh Vektoren, die sich zu 1 summieren).
- Im Gegensatz zum euklidischen Abstand kann der JM-Abstand auf alle Verteilungen verallgemeinert werden, für die der Bhattacharrya-Abstand formuliert werden kann.
- Die JM-Distanz hat über die Bhattacharrya-Distanz eine probabilistische Interpretation.
Die Jeffries-Matusita-Distanz, die in der Fernerkundungsliteratur besonders beliebt zu sein scheint, ist eine Transformation der Bhattacharrya-Distanz (ein beliebtes Maß für die Unähnlichkeit zwischen zwei Verteilungen, hier als ) aus dem Bereich auf den festen Bereich :bp,q[0,inf)[0,2–√]
JMp,q=2(1−exp(−b(p,q))−−−−−−−−−−−−−−−√
Ein praktischer Vorteil des JM-Abstands besteht laut diesem Artikel darin, dass diese Maßnahme "dazu neigt, hohe Trennbarkeitswerte zu unterdrücken, während niedrige Trennbarkeitswerte überbetont werden".
Der Bhattacharrya-Abstand misst die Unähnlichkeit zweier Verteilungen und im folgenden abstrakten kontinuierlichen Sinne:
Wenn die Verteilungen und werden durch Histogramme erfasst, die durch Einheitslängenvektoren dargestellt werden (wobei das te Element die normalisierte Anzahl für das te von Bins ist). Dies wird:
Und folglich ist der JM-Abstand für die beiden Histogramme:
Welche, wobei zu beachten ist, dass für normalisierte Histogrammepq
b(p,q)=−ln∫p(x)q(x)−−−−−−−√dx
pqiiNb(p,q)=−ln∑i=1Npi⋅qi−−−−−√
JMp,q=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷
∑ipi=1ist dieselbe wie die oben angegebene Formel:
JMp,q=∑i=1N(pi−−√−qi−−√)2−−−−−−−−−−−−−−⎷=∑i=1N(pi−2pi−−√qi−−√+qi)−−−−−−−−−−−−−−−−−−−⎷=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷