Ich denke, es hängt davon ab, wie es verwendet werden soll.
Nur als Referenz für andere Leser, wenn und Wahrscheinlichkeitsmaße sind, dann ist die Jensen-Shannon-Divergenz
wobei der Mittelpunkt und der Kullback-Wert ist. Leibler-Divergenz.PQ.
J( S., Q ) = 12( D(P∣ ∣ R ) + D ( Q ∣ ∣ R ) )
R = 12(S.+ Q )D ( ⋅ | | ⋅ )
Jetzt wäre ich versucht, die Quadratwurzel der Jensen-Shannon-Divergenz zu verwenden, da sie eine Metrik ist , dh alle "intuitiven" Eigenschaften eines Entfernungsmaßes erfüllt.
Weitere Einzelheiten hierzu finden Sie unter
Endres und Schindelin, Eine neue Metrik für Wahrscheinlichkeitsverteilungen , IEEE Trans. auf Info. Deine. vol. 49, nein. 3, Jul. 2003, S. 1858-1860.
In gewissem Sinne kommt es natürlich darauf an, wofür Sie es brauchen. Wenn Sie nur ein paarweises Maß verwenden, funktioniert jede monotone Transformation von JSD. Wenn Sie nach etwas suchen, das einem "Quadratabstand" am nächsten kommt, dann ist die JSD selbst die analoge Größe.
Diese vorherige Frage und die damit verbundenen Antworten und Diskussionen könnten Sie übrigens auch interessieren .
J(P,Q) = J(Q,P)
. Ich habe gelesen, dass die JS-Divergenz in P und Q symmetrisch ist. Bedeutet dasJS(P,Q) = JS(Q,P)
? Ich frage dies, weil ich dieKLdiv
Funktion aus demflexmix
Paket in verwendeR
. Für meine beiden Distributionen ist die Matrixausgabe von KLdiv nicht symmetrisch. Ich hatte erwartet, dass JS dies korrigiert, aber die Ausgabe von JS (berechnet mit KL) ist nicht symmetrisch.