Wie funktioniert ein Perzeptron mit mehreren Klassen?

13

Ich habe keinen mathematischen Hintergrund, aber ich verstehe, wie das einfache Perceptron funktioniert, und ich glaube, ich verstehe das Konzept einer Hyperebene (ich stelle es mir geometrisch als eine Ebene im 3D-Raum vor, die zwei Punktwolken trennt, nur als eine Linie, die sie trennt) zwei Punktwolken im 2D-Raum).

Aber ich verstehe nicht, wie eine Ebene oder eine Linie drei verschiedene Punktwolken im 3D-Raum bzw. im 2D-Raum trennen kann - das ist geometrisch nicht möglich, oder?

Ich habe versucht, den entsprechenden Abschnitt im Wikipedia-Artikel zu verstehen, bin aber schon beim Satz "Hier werden die Eingabe x und die Ausgabe y aus beliebigen Mengen gezogen" kläglich gescheitert. Könnte mir jemand das Multiklassen-Perzeptron erklären und wie es mit der Idee der Hyperebene zusammenhängt, oder mich auf eine nicht so mathematische Erklärung hinweisen?

wnstnsmth
quelle

Antworten:

8

Angenommen, wir haben Daten wobei x iR n Eingangsvektoren sind und y i{ rot, blau, grün } die Klassifikationen sind.(x1,y1),,(xk,yk)xiRnyi{red, blue, green}

Wir wissen, wie man einen Klassifikator für binäre Ergebnisse erstellt, also machen wir das dreimal: Gruppieren Sie die Ergebnisse , { blau, rot oder grün } und { grün, blau oder rot } .{red, blue or green}{blue, red or green}{green, blue or red}

Jedes Modell hat die Form einer Funktion , nennt sie f R , f B , f G verbunden. Dies nimmt einen Eingabevektor zum vorzeichenbehafteten Abstand von der Hyperebene, die jedem Modell zugeordnet ist, wobei der positive Abstand einer Vorhersage von Blau bei f B , Rot bei f R und Grün bei f G entspricht . Grundsätzlich, je positiver f G ( x ) ist, desto mehr denkt das Modell, dass xf:RnRfR,fB,fGfBfRfGfG(x)xist grün und umgekehrt. Wir brauchen nicht, dass die Ausgabe eine Wahrscheinlichkeit ist, wir müssen nur messen können, wie sicher das Modell ist.

Wenn eine Eingabe , klassifizieren wir sie gemäß argmax c f c ( x ) . Wenn also f G ( x ) die größte unter { f G ( x ) , f B ( x ) , f R ( x ) } ist , würden wir dies tun sagen Sie Grün für x voraus .xargmaxc fc(x)fG(x){fG(x),fB(x),fR(x)}x

Diese Strategie nennt sich "one vs all" und kann hier nachgelesen werden .

Harri
quelle
3

Ich kann diesen Wiki-Artikel überhaupt nicht verstehen. Hier ist eine alternative Erklärung.

Ein Perzeptron mit einem logistischen Ausgabeknoten ist ein Klassifizierungsnetzwerk für 2 Klassen. Es gibt , die Wahrscheinlichkeit, in einer der Klassen zu sein, und die Wahrscheinlichkeit, in der anderen zu sein, einfach 1 - p .p1p

pi1i=(1,2)pi

mm+1

Hong Ooi
quelle
Sind Sie sicher, dass die Ausgabe eine tatsächliche Wahrscheinlichkeit ist? Jedenfalls weiß ich nicht, wie die multinomiale logistische Regression funktioniert, also muss ich das untersuchen. Aber gibt es keine (algorithmische) Möglichkeit zu erklären, wie ein Perzeptron mit zwei oder mehr Ausgangsknoten aufgebaut ist? Sind sie irgendwie miteinander verkettet?
Wnstnsmth