Ich kann feststellen, dass es viele formale Unterschiede zwischen den Abstandsmaßen Kullback-Leibler und Kolmogorov-Smirnov gibt. Beide werden jedoch verwendet, um den Abstand zwischen Verteilungen zu messen.
- Gibt es eine typische Situation, in der einer anstelle des anderen verwendet werden sollte?
- Was ist der Grund dafür?
Antworten:
Die KL-Divergenz wird typischerweise in informationstheoretischen Einstellungen oder sogar in Bayes-Einstellungen verwendet, um die Informationsänderung zwischen Verteilungen vor und nach dem Anwenden von Inferenz zu messen. Es ist keine Distanz im typischen (metrischen) Sinne, da Symmetrie und Dreiecksungleichheit fehlen, und wird daher an Orten verwendet, an denen die Richtwirkung von Bedeutung ist.
quelle
Eine andere Möglichkeit, das Gleiche wie in der vorherigen Antwort zu sagen:
KL-Divergenz - Liefert tatsächlich ein Maß dafür, wie groß der Unterschied zwischen zwei Verteilungen ist. Wie in der vorherigen Antwort erwähnt, ist dieses Maß keine geeignete Abstandsmetrik, da es nicht symmetrisch ist. Dh der Abstand zwischen Verteilung A und B ist ein anderer Wert als der Abstand zwischen Verteilung B und A.
Kolmogorov-Smirnov-Test - Hierbei handelt es sich um eine Bewertungsmetrik, die den größten Unterschied zwischen der kumulativen Verteilung einer Testverteilung und einer Referenzverteilung untersucht. Darüber hinaus können Sie diese Metrik wie einen Z-Score für die Kolmogorov-Verteilung verwenden, um einen Hypothesentest durchzuführen, um festzustellen, ob die Testverteilung mit der Referenzverteilung identisch ist. Diese Metrik kann als Distanzfunktion verwendet werden, da sie symmetrisch ist. Die größte Trennung zwischen CDF von A und CDF von B ist die gleiche wie die größte Trennung zwischen CDF von B und CDF von A.
quelle