Laut einem Artikel, den ich lese, wird häufig der Abstand zwischen Jeffries und Matusita verwendet. Aber ich konnte nicht viele Informationen darüber finden, außer der folgenden Formel
JMD (x, y) =
Es ähnelt dem euklidischen Abstand mit Ausnahme der Quadratwurzel
E (x, y) =
Die JM-Entfernung soll hinsichtlich der Klassifizierung zuverlässiger sein als die euklidische Entfernung. Kann jemand erklären, warum dieser Unterschied die JM-Distanz verbessert?
classification
k-nearest-neighbour
euclidean
romy_ngo
quelle
quelle
Antworten:
Einige wesentliche Unterschiede, die einer längeren Erklärung vorausgehen, sind folgende:
Die Jeffries-Matusita-Distanz, die in der Fernerkundungsliteratur besonders beliebt zu sein scheint, ist eine Transformation der Bhattacharrya-Distanz (ein beliebtes Maß für die Unähnlichkeit zwischen zwei Verteilungen, hier als ) aus dem Bereich auf den festen Bereich :bp,q [0,inf) [0,2–√]
Ein praktischer Vorteil des JM-Abstands besteht laut diesem Artikel darin, dass diese Maßnahme "dazu neigt, hohe Trennbarkeitswerte zu unterdrücken, während niedrige Trennbarkeitswerte überbetont werden".
Der Bhattacharrya-Abstand misst die Unähnlichkeit zweier Verteilungen und im folgenden abstrakten kontinuierlichen Sinne: Wenn die Verteilungen und werden durch Histogramme erfasst, die durch Einheitslängenvektoren dargestellt werden (wobei das te Element die normalisierte Anzahl für das te von Bins ist). Dies wird: Und folglich ist der JM-Abstand für die beiden Histogramme: Welche, wobei zu beachten ist, dass für normalisierte Histogrammep q
quelle