Warum werden in der binären Klassifikation des Gaußschen Prozesses Sigmoidfunktionen gegenüber Gaußschen Funktionen bevorzugt?

7

Ich studiere derzeit "Gaußsche Prozesse für maschinelles Lernen" und in Kapitel 3 heißt es, dass das hintere (Gleichung 3.10) und das latente Die Variable posterior (Gleichung 3.9) kann aufgrund der Sigmoidwahrscheinlichkeiten in (3.9) und der Sigmoidfunktion in (3.10) im Allgemeinen nicht analytisch gelöst werden ). Um zu verhindern, dass Personen die Gleichungen nachschlagen müssen, lauten sie wie folgt: p(y|X,y,x)p(f|X,y,x)

p(y=+1|X,y,x)=σ(f)p(f|X,y,x)df(3.10)p(f|X,y,x)=p(f|X,x,f)p(f|X,y)df(3.9)

Meine Hauptfrage lautet: Für die binäre Klassifikation mit als Gaußscher Prozess modelliert wurde, warum überhaupt Sigmoidfunktionen (in beiden Gleichungen) anstelle der Gaußschen Funktion Dies würde zu geschlossenen Lösungen für beide Integrale führen. Die Gaußsche Funktion ist nicht wie Sigmoidfunktionen monoton, aber Allgemeinmediziner können Funktionen mit mehreren Wendepunkten erzeugen, sodass Monotonie unnötig erscheint. Um sicherzustellen, dass (3.10) zu \ frac {1} {2} konvergiert, wenn \ mathbf {x_ *} weit von den Trainingsdaten entfernt ist, würde es vermutlich ausreichen, dem vorherigen p (\ mathbf {f} | X) einen Mittelwert zu geben :: f

p(y=+1|f(x))=g(f(x))exp{f2(x)2}?
12xp(f|X)
E[f|X]=ω1nω=2ln12,
wobei 1n ein Vektor von n 1 und n die Anzahl der Trainingsmuster ist, da:
g(ω)=12.

Im Gegensatz zum Verhalten von Sigmoid-Wahrscheinlichkeiten würden Gaußsche Wahrscheinlichkeiten große (positive oder negative) Einträge in f für negativ markierte Eingabepunkte und kleine Einträge in f für positiv markierte Punkte bevorzugen .

Würden Gaußsche Funktionen zu Problemen führen, die bei Sigmoiden nicht auftreten? Gibt es Arbeiten, in denen Gaußsche Funktionen in der binären GP-Klassifikation anstelle von Sigmoiden verwendet wurden?

Update, 25. Mai 2017

Bei weiterer Überlegung hilft der oben vorgeschlagene Mittelwert ungleich Null, die Unklarheit darüber aufzulösen, was das Vorzeichen von sein soll ( bevorzugt keines der Vorzeichen; ). Das Auflösen dieser Mehrdeutigkeit scheint wichtig zu sein, denn wenn der Mittelwert des Prior Null war, dann ist der Mittelwert von wäre auch Null unter einer durch definierten Wahrscheinlichkeit , da sowohl der Prior als auch die Wahrscheinlichkeit gerade Funktionen von wären . Dh: fgg(f(x))=g(f(x))p(f|X)p(f|X,y)gf

p(y|f)=i=1np(yi|fi)p(yi|fi)={g(fi),yi=+11g(fi),yi=1E[f|X]=0p(f|X,y)=p(y|f)p(f|X))p(y|X)=p(y|f)p(f|X))p(y|X)=p(f|X,y).

Wenn der Mittelwert von Null wäre, würden die Trainingssatzbezeichnungen keine Informationen über die Abfragepunktbezeichnung liefern , also dürfen wir dies eindeutig nicht erlaube das. Zusätzlich zur Definition von sollten wir vielleicht in Richtung positiv durch Angabe der vorherigen relativ kleinen Standardabweichungen, z. B. , wobei ist die Kovarianzfunktion und . Wenn wir dies tun, sollten wir wahrscheinlich auchp(f|X,y)yyE[f|X]=ω1np(f|X,y)fp(f|X)k(x,x)=ωβkβ[2,3]g's Argument, damit nicht unwahrscheinlich weit vom vorherigen Mittelwert entfernt sein muss, um kleine Werte von zu erzeugen : wobei .fg

g(f(x);s)=exp{f2(x)2s2},
s<1

Wäre dies ein vernünftiger Weg, um das Problem der Mehrdeutigkeit von Zeichen zu beheben?f

Ose
quelle

Antworten:

3

Ich glaube, sie erwähnen dies in der Fußnote zu Kapitel 3 (erste Seite).

Man kann sich dafür entscheiden, die Diskretion der Zielwerte zu ignorieren und eine Regressionsbehandlung zu verwenden, bei der alle Ziele für die binäre Klassifizierung zufällig ± 1 sind. Dies wird als Klassifizierung der kleinsten Quadrate bezeichnet, siehe Abschnitt 6.5.

Mit Blick auf 6.5 http://www.gaussianprocess.org/gpml/chapters/RW6.pdf erwähnen sie den Vorteil der Verwendung von Sigmoid-Funktionen darin, dass die Ausgaben probabilistisch interpretiert werden können (dh die Wahrscheinlichkeit, dass ein Beispiel eine positive Antwort hat). .

Max S.
quelle
1
Die Klassifizierung der kleinsten Quadrate ist nicht das, was ich mir vorgestellt habe, obwohl es eine weitere interessante Alternative für die binäre Klassifizierung ist. Was ich vorhatte, war die GP-Binärklassifizierung genau wie in Kapitel 3 beschrieben durchzuführen, außer dass jedes Auftreten von durch die Gaußsche Funktion oben ersetzt wird (beachten Sie, dass Maximum 1 ist; es ist kein normalisiertes Gaußsches PDF) und das vorherige erhält den in meiner Frage beschriebenen Mittelwert. σggp(f|X)
Ose
0

Das Problem bei diesem Ansatz ist, dass die Anzahl der Terme in exponentiell mit der Anzahl der negativ markierten Punkte im Trainingssatz zunehmen würde, so dass die geschlossene Lösung für (3.9) hätte exponentielle zeitliche Komplexität. Genauer gesagt, wenn wir ohne Verlust der Allgemeinheit annehmen, dass dann Um eine geschlossene Lösung für (3.9) zu erhalten, müssen wir das erste Produkt in eine Summe von (nicht normalisierten) Gaußschen Funktionen erweitern, damit wir jede einzeln integrieren können: p(y|f)

y1==ya=1,ya+1==yn=+1,
p(y|f)=(i=1a(1g(fi)))i=a+1ng(fi).
i=1a(1g(fi))=IP{1,,a}(1)|I|exp{12iIfi2}.
Es gibt Mengen in der Potenzmenge der negativ markierten Punktindizes , so dass das Lösen (3.9) das Rechnen beinhalten würde Gaußsche Integrale.2aP{1,,a}{1,,a}2a

Ose
quelle