Ich lese Elemente des statistischen Lernens und auf Seite 12 (Abschnitt 2.3) wird ein lineares Modell wie folgt notiert:
... wobei die Transponierte eines Spaltenvektors der Prädiktoren / unabhängigen Variablen / Eingaben ist. (Es heißt früher: "Es wird angenommen, dass alle Vektoren Spaltenvektoren sind." Würde dies nicht einem Zeilenvektor und einem Spaltenvektor machen?) X T β
In ist eine " " enthalten, die mit dem entsprechenden Koeffizienten multipliziert wird, der den (konstanten) Achsenabschnitt ergibt.1
Es heißt weiter:
Im -dimensionalen Eingabe-Ausgabe-Raum repräsentiert eine Hyperebene. Wenn die Konstante in , enthält die Hyperebene den Ursprung und ist ein Unterraum. Wenn nicht, handelt es sich um eine affine Menge, die die Achse am Punkt schneidet .X Y ( 0 , ^ β 0 )
Beschreibt " " einen Vektor, der durch die Verkettung der Prädiktoren, der " " des Abschnitts und ? Und warum zwingt das Einfügen einer " " in die Hyperebene, den Ursprung zu passieren, sicher, dass " " mit multipliziert werden soll ?1 Y 1 X 1 ^ β 0
Ich verstehe das Buch nicht; Jede Hilfe / Beratung / Links zu Ressourcen wäre sehr dankbar.
Antworten:
Sei die Anzahl der Beobachtungen und die Anzahl der erklärenden Variablen.K.N K
N.X ist eigentlich eine Matrix. Nur wenn wir eine einzelne Beobachtung betrachten, bezeichnen wir jede Beobachtung gewöhnlich als - einen Zeilenvektor erklärender Variablen eines bestimmten Beobachtungsskalars multipliziert mit dem Spaltenvektor . Darüber hinaus ist ein Spaltenvektor, der alle Beobachtungen .N×K xTi K×1 β Y N×1 Yn
Nun würde eine zweidimensionale Hyperebene zwischen dem Vektor und einem (!) Spaltenvektor von . Denken Sie daran, dass eine Matrix ist, sodass jede erklärende Variable durch genau einen Spaltenvektor der Matrix . Wenn wir nur eine erklärende Variable haben, keinen Achsenabschnitt und , befinden sich alle Datenpunkte entlang der zweidimensionalen Ebene, die von und überspannt wird .Y X X N×K X Y Y X
Wie viele Dimensionen hat die Hyperebene zwischen und der Matrix für eine multiple Regression insgesamt ? Antwort: Da wir in Spaltenvektoren erklärender Variablen haben , müssen wir eine dimensionale Hyperebene haben.Y X K X K+1
Normalerweise erfordert die Regression in einer Matrixeinstellung, dass ein konstanter Achsenabschnitt für eine vernünftige Analyse des Steigungskoeffizienten unverzerrt ist. Um diesem Trick Rechnung zu tragen, erzwingen wir, dass eine Spalte der Matrix nur aus " s" besteht. In diesem Fall steht der Schätzer allein multipliziert mit einer Konstanten für jede Beobachtung anstelle einer zufälligen erklärenden Variablen. Der Koeffizient stellt daher den erwarteten Wert von , , wird mit dem Wert 1 festgehalten und alle anderen Variablen sind Null. Daher wird die dimensionale Hyperebene um eine Dimension auf einen dimensionalen Unterraum reduziert , undX 1 β1 β1 Y x1i K+1 K β1 entspricht dem "Achsenabschnitt" dieser dimensionalen Ebene.K
In Matrixeinstellungen ist es immer ratsam, den einfachen Fall von zwei Dimensionen zu betrachten, um zu sehen, ob wir eine Intuition für unsere Ergebnisse finden können. Hier ist es am einfachsten, sich die einfache Regression mit zwei erklärenden Variablen : oder alternativ ausgedrückt in der : wobei ist Matrix.
Wenn wir nun alle zwingen , alle , erhalten wir: was unsere übliche einfache Regression ist, die in einem zweidimensionalen Diagramm dargestellt werden kann. Beachten Sie, dass jetzt auf eine zweidimensionale Linie reduziert wird - eine Teilmenge der ursprünglich dreidimensionalen Hyperebene. Der Koeffizient entspricht dem Schnittpunkt des Linienschneidens bei .x1 1
Es kann weiter gezeigt werden, dass es auch durchläuft wenn die Konstante enthalten ist . Wenn wir die Konstante weglassen, geht die Regressionshyperebene immer trivial durch - ohne Zweifel. Dies verallgemeinert sich auf mehrere Dimensionen, wie später beim Ableiten von : Da pro Definition den vollen Rang hat, ist , und die Regression geht durch den Ursprung, wenn wir den .<0,β1> <0,0> β X y - X β = 0
( Bearbeiten: Ich habe gerade festgestellt, dass dies für Ihre zweite Frage genau das Gegenteil von dem ist, was Sie über das Ein- oder Ausschließen der Konstante geschrieben haben. Ich habe jedoch bereits die Lösung hier entwickelt und stehe korrigiert, wenn ich mich in dieser Frage irre. )
Ich weiß, dass die Matrixdarstellung einer Regression am Anfang ziemlich verwirrend sein kann, aber letztendlich vereinfacht sie sich sehr, wenn komplexere Algebra abgeleitet wird. Hoffe das hilft ein bisschen.
quelle
Ich denke, der Weg, dies zu denken, besteht darin, diese Gleichung neu zu ordnen:
Die einzige Möglichkeit, diese lineare Gleichung zu erhalten, um den Ursprung besteht darin, das vorhergesagte gleich dem Achsenabschnitt zu machen. Um diesen Wert zu schätzen, muss ein Intercept-Term in das Regressionsmodell aufgenommen werden.
quelle