Ein Kollege hat eine Funktion und für unsere Zwecke ist es eine Blackbox. Die Funktion misst die Ähnlichkeit zweier Objekte.
Wir wissen sicher, dass diese Eigenschaften hat:
- Die Ähnlichkeitswerte sind reelle Zahlen zwischen 0 und einschließlich 1.
- Nur die Objekte, die selbstidentisch sind, haben Punktzahlen von 1. Also impliziert und umgekehrt.
- Wir sind garantiert, dass .
Jetzt möchte er mit Algorithmen arbeiten, die Entfernungen als Eingaben erfordern und von den Eingaben abhängen, die die Axiome der Entfernung erfüllen.
Mein Gedanke war, dass wir die Ähnlichkeitsbewertungen so behandeln könnten, als wären sie das Ergebnis des RBF-Kernels mit einer gewissen Entfernung (es könnte eine euklidische Norm oder eine andere Entfernung sein), dh wir können einfach mit Algebra neu ordnen und annehmen, dass sich die Ähnlichkeitsbewertungen beziehen der RBF-Kernel für ein Punktpaar in einem (unbekannten) Koordinatensystem.
Wobei ein unbekannter Vektor ist und das interessierende Objekt ist und eine gewisse Entfernung ist.
Die offensichtlichen Eigenschaften zeigen sich in Bezug auf die Abstandsaxiome. Die Ergebnisse dürfen nicht negativ sein, und die Abstände für identische Objekte sind nur 0. Es ist jedoch nicht offensichtlich, dass diese eher allgemeinen Umstände ausreichen, um zu implizieren, dass die Dreiecksungleichheit respektiert wird.
Auf der anderen Seite klingt das irgendwie verrückt.
Meine Frage lautet also: "Gibt es ein so dass für eine Entfernungsmetrik ist, wenn diese Eigenschaften für , und was ist das ?"
Wenn diesen allgemeinen Umständen auf nicht existiert , gibt es einen zusätzlichen Satz von Anforderungen, für die existiert?s f
quelle
Antworten:
Nicht in allen Fällen.
Wikipedia: "In der Mathematik, insbesondere in der Funktionsanalyse, ist der Satz von Mercer eine Darstellung einer symmetrischen positiv-definitiven Funktion auf einem Quadrat als Summe einer konvergenten Folge von Produktfunktionen. Dieser in (Mercer 1909) vorgestellte Satz ist einer der folgenden Die bemerkenswertesten Ergebnisse der Arbeit von James Mercer: Es ist ein wichtiges theoretisches Werkzeug in der Theorie der Integralgleichungen, es wird in der Hilbert-Raumtheorie stochastischer Prozesse verwendet, zum Beispiel im Karhunen-Loève-Theorem, und es wird auch zur Charakterisierung verwendet ein symmetrischer positiver semi-definierter Kernel.
Es ist ein " Viele-zu-Eins-Mapping " auf einem Hilbert-Raum . - Eine grobe Vereinfachung wäre, es als Hash oder Prüfsumme zu beschreiben, die Sie anhand einer Datei testen können, um die Identität festzustellen oder nicht.
Technischere Erklärung: Zerfallsatz
"In der Mathematik ist der Desintegrationssatz ein Ergebnis der Maßtheorie und der Wahrscheinlichkeitstheorie. Er definiert die Idee einer nicht trivialen" Beschränkung "eines Maßes auf eine Teilmenge des fraglichen Maßraums von Maß Null rigoros Existenz von bedingten Wahrscheinlichkeitsmaßen. In gewissem Sinne ist "Zerfall" der entgegengesetzte Prozess zur Konstruktion eines Produktmaßes. "
Siehe auch: " Das Fubini-Tonelli-Theorem ", " Scharnierverlust ", " Verlustfunktion " und " Wie gut ist ein Kernel, wenn er als Ähnlichkeitsmaß verwendet wird? " (Juni 2007) von Nathan Srebro, die Zusammenfassung:
" Abstract. Kürzlich schlugen Balcan und Blum eine Theorie des Lernens vor, die auf allgemeinen Ähnlichkeitsfunktionen basiert, anstatt auf positiven semidefiniten Kerneln. Wir untersuchen die Lücke zwischen den Lerngarantien, die auf kernelbasiertem Lernen basieren, und denen, die durch Verwendung erhalten werden können Der Kernel als Ähnlichkeitsfunktion, der von Balcan und Blum offen gelassen wurde. Wir liefern eine deutlich verbesserte Grenze dafür, wie gut eine Kernelfunktion ist, wenn sie als Ähnlichkeitsfunktion verwendet wird, und erweitern das Ergebnis auch auf den praktisch relevanteren Scharnierverlust dann Null-Eins-Fehlerrate. Darüber hinaus zeigen wir, dass diese Grenze eng ist, und stellen daher fest, dass tatsächlich eine echte Lücke zwischen dem traditionellen kernelbasierten Begriff der Marge und dem neueren Ähnlichkeitsbegriff besteht. "
Siehe: Kernel und Ähnlichkeit (in R)
Da es sich um eine Black Box handelt, wissen Sie nicht genau, welcher Kernel verwendet wird, wenn er kernelbasiert ist, und Sie kennen die Details der Implementierung des Kernels nicht, wenn Sie glauben, zu wissen, um welchen es sich handelt. Siehe: Die Gleichung von rbfKernel in Kernlab unterscheidet sich vom Standard? .
Es ist schnell und effektiv, unter bestimmten Umständen. Wie ein Hammer, wenn Sie einen Hammer mit sich führen, werden die Leute Sie verrückt nennen?
" Kernel-Methoden verdanken ihren Namen der Verwendung von Kernelfunktionen, die es ihnen ermöglichen, in einem hochdimensionalen, impliziten Merkmalsraum zu arbeiten, ohne jemals die Koordinaten der Daten in diesem Raum zu berechnen, sondern indem sie einfach die inneren Produkte zwischen den Bildern berechnen alle Paare von Daten im Merkmalsraum. Dieser Vorgang oft rechnerisch günstiger ist als die explizite Berechnung der Koordinaten. Dieser Ansatz des „Kernel - Trick“. genannt Kernel - Funktionen für Sequenzdaten, Grafiken, Texte, Bilder eingeführt wurden, als sowie Vektoren. ".
Lektion: Sie bekommen (manchmal) das, wofür Sie bezahlen.
Viele finden Sie unter den obigen Links, " Popular Kernel Functions ", RBF , und hier ist ein (teures) Beispiel: " Ein Likelihood Ratio Distance Measure für die Ähnlichkeit zwischen der Fourier-Transformation von Zeitreihen " (2005) von Janacek, Bagnall und Powell.
Verschiedene Räume und Methoden können den Vergleich (und die Auflösung) spezifischer Probleme verbessern. Es gibt viele Methoden allein für den Hilbert-Raum .
Ja, die Liste ist groß, siehe die obigen Links und (für ein Beispiel): Reproduzieren des Kernel-Hilbert-Space .
quelle
In der Tat ist es nicht ausreichend. Arbeiten wir mit . Wenn es drei Punkte x , y , z mit d ( x , y ) = 1 gibtd(a,b)=1−s(a,b) x,y,z ,d(y,z)=1d(x,y)=13 undd(x,z)=1, dann versagt die Dreiecksungleichung, weild(x,z)>d(x,y)+d(y,z).d(y,z)=13 d(x,z)=1 d(x,z)>d(x,y)+d(y,z)
quelle