Ich bin ein Anfänger im maschinellen Lernen. In SVM ist die trennende Hyperebene definiert als . Warum sagen wir Vektor w orthogonal zur trennenden Hyperebene?
machine-learning
svm
Chong Zheng
quelle
quelle
Antworten:
Geometrisch ist der Vektor w orthogonal zu der durch definierten Linie gerichtet . Dies kann wie folgt verstanden werden:wT.x = b
Nehmen Sie zuerst . Nun ist klar, dass alle Vektoren x mit verschwindendem inneren Produkt mit w diese Gleichung erfüllen, dh alle Vektoren orthogonal zu w erfüllen diese Gleichung.b=0 x w
Verschieben Sie nun die Hyperebene vom Ursprung weg über einen Vektor a. Die Gleichung für die Ebene lautet nun: , dh wir finden, dass für den Versatz b = a T w die Projektion des Vektors a auf den Vektor w ist .(x−a)Tw=0 b=aTw a w
Ohne Verlust der Allgemeinheit können wir also eine Senkrechte zur Ebene wählen, in welchem Fall die Länge Dies ist der kürzeste orthogonale Abstand zwischen dem Ursprung und der Hyperebene.||a||=|b|/||w||
Daher soll der Vektor orthogonal zur trennenden Hyperebene sein.w
quelle
Der Grund, warum normal zur Hyperebene ist, liegt darin, dass wir es so definieren:w
quelle
quelle
Verwenden der algebraischen Definition eines Vektors, der orthogonal zu einer Hyperebene ist:
quelle