Sie denken wahrscheinlich an den Test mit zwei Stichproben , da dies häufig der erste Ort ist, an dem die Verteilung auftritt. Aber wirklich alles, was ein Test bedeutet, ist, dass die Referenzverteilung für die Teststatistik eine Verteilung ist. Wenn und mit und unabhängig sind, dann
per Definition. Ich schreibe dies auf, um zu betonen, dass die t- Verteilung nur ein Name ist, der der Verteilung dieses Verhältnisses gegeben wurde, weil es häufig vorkommt und alles in dieser Form ein t hatttttZ∼N(0,1)S2∼χ2dZS2
ZS2/d−−−−√∼td
ttVerteilung. Für den t-Test mit zwei Stichproben erscheint dieses Verhältnis, weil unter der Null die Differenz im Mittel ein Gauß-Mittelwert von Null ist und die Varianzschätzung für unabhängige Gauß-Werte ein unabhängiges
χ2 (die Unabhängigkeit kann über
Basus Theorem gezeigt werden,
das das verwendet Tatsache, dass die Standardvarianzschätzung in einer Gaußschen Stichprobe dem Populationsmittelwert entspricht, während der Stichprobenmittelwert vollständig ist und für dieselbe Menge ausreicht).
Mit linearer Regression erhalten wir im Grunde das Gleiche. In Vektorform . Sei und nehme an, dass die Prädiktoren nicht zufällig sind. Wenn wir wüssten, hätten wir
unter der Null also würden wir tatsächlich Habe einen Z-Test. Aber sobald wir schätzen, erhalten wir eine Zufallsvariable, die sich unter unseren Normalitätsannahmen als unabhängig von unserer Statistik herausstellt, und dann erhalten wir eine Verteilung.S 2 j =(XTX) - 1 j j Xσ2 β j-0β^∼N(β,σ2(XTX)−1)S2j=(XTX)−1jjXσ2H0:βj=0σ2χ2 β jt
β^j- 0σSj∼ N( 0 , 1 )
H0: βj= 0σ2χ2β^jt
Hier sind die Details dazu: Nehmen wir an, . Wenn die Hutmatrix ist, haben wir
ist idempotent, also haben wir das wirklich schöne Ergebnis, dass
mit dem Nicht-Zentralitätsparameter , also ist dies tatsächlich ein zentrales mit Freiheitsgraden (dies ist ein Sonderfall von Cochran) Satz ). Ich benutze , um die Anzahl der Spalten von , also wenn eine Spalte vonH = X ( X T X ) - 1 X T ‖ e ‖ 2 = ‖ ( I - H ) y ‖ 2 = y T ( I - H ) y . H y T ( I - H ) y / σ 2 ∼ χy∼ N( Xβ, σ2ich)H= X( XTX)- 1XT
∥ e ∥2= ∥ ( I- H) y∥2= yT( Ich- H) y.
Hδ=βTXT(I-H)Xβ=βT(XTX-XTX)β=0χ2n-PpXXp-1Pn-P-1yT( Ich- H) y/ σ2~ χ2n - p( δ)
δ= βTXT( Ich- H) Xβ= βT( XTX- XTX) β= 0χ2n - ppXXGibt den Intercept an, dann hätten wir Non-Intercept Predictors. Einige Autoren verwenden , um die Anzahl der Non-Intercept-Prädiktoren zu bestimmen. Manchmal sieht man dort in den Freiheitsgraden so etwas wie , aber es ist alles dasselbe.
p - 1pn - p - 1
Dies hat zur Folge, dass , also funktioniert hervorragend als Schätzer für .σ 2 : = 1E( eTe / σ2) = n - pσ2σ^2: = 1n - peTeσ2
Dies bedeutet, dass
ist das Verhältnis eines Standard-Gaußschen zu einem Chi-Quadrat dividiert durch seine Freiheitsgrade. Um dies zu beenden, müssen wir Unabhängigkeit zeigen und können das folgende Ergebnis verwenden:
β^jσ^Sj= β^jSjeTe / ( n - p )----------√= β^jσSjeTeσ2( n - p )------√
Ergebnis: Für und die Matrizen und in und sind und unabhängig genau dann, wenn (dies ist Übung 58 (b) in Kapitel 1 der mathematischen Statistik von Jun Shao ).A B R l × k R m × k A Z B Z A Σ B T = 0Z∼ Nk( μ , Σ )EINBRl × kRm × kA ZB ZA Σ BT= 0
Wir haben und wobei . Dies bedeutet
also und daher .e=(I-H)yy~N(Xβ,σ2I)(XTX)-1XT⋅σ2I⋅(I-H)T=σ2((XTX)β^= ( XTX)- 1XTye = ( I- H) yy∼ N( Xβ, σ2ich) & bgr; ⊥e & bgr; ⊥eTe
( XTX)- 1XT⋅ σ2ich⋅ ( I- H)T= σ2( ( XTX)- 1XT- ( XTX)- 1XTX( XTX)- 1XT) =0
β^⊥ eβ^⊥ eTe
Das Fazit ist, dass wir nun nach Belieben
(unter allen obigen Annahmen).
β^jσ^Sj∼ tn - p
Hier ist der Beweis für dieses Ergebnis. Sei die Matrix, die durch Stapeln von auf . Dann ist
wobei
ist ein multivariater Gauß und es ist ein bekanntes Ergebnis, dass zwei Komponenten eines multivariaten Gauß unabhängig sind, wenn und nur wenn sie nicht korreliert sind, so dass die Bedingung genau äquivalent zu den Komponenten istC= ( AB)( l + m ) × kEINB
CZ= ( A ZB Z) ∼N( ( A μB μ) ,CΣ CT)
CΣ CT= ( AB) Σ( ATBT) = ( A Σ ATB Σ ATA Σ BTB Σ BT) .
CZA Σ BT= 0A Z und in nicht korreliert.
B ZCZ
□
@ Chaconne's Antwort ist super. Aber hier ist eine viel kürzere nicht-mathematische Version!
Da das Ziel darin besteht, einen P-Wert zu berechnen, müssen Sie zunächst eine Nullhypothese definieren. Fast immer, das heißt, die Steigung ist tatsächlich horizontal, sodass der numerische Wert für die Steigung (Beta) 0,0 beträgt.
Die Steigungsanpassung aus Ihren Daten beträgt nicht 0,0. Liegt diese Diskrepanz am Zufall oder daran, dass die Nullhypothese falsch ist? Sie können das nie mit Sicherheit beantworten, aber ein P-Wert ist ein Weg, um zu einer Antwort zu gelangen.
Das Regressionsprogramm meldet einen Standardfehler der Steigung. Berechnen Sie das t-Verhältnis als Steigung geteilt durch den Standardfehler. Tatsächlich ist es (Steigung minus Nullhypothesensteigung) geteilt durch den Standardfehler, aber die Nullhypothesensteigung ist fast immer Null.
Jetzt hast du das Verhältnis. Die Anzahl der Freiheitsgrade (df) entspricht der Anzahl der Datenpunkte abzüglich der Anzahl der durch die Regression angepassten Parameter (zwei für die lineare Regression).
Mit diesen Werten (t und df) können Sie den P-Wert mit einem Online-Rechner oder einer Online-Tabelle ermitteln.
Es handelt sich im Wesentlichen um einen t-Test mit einer Stichprobe, bei dem ein beobachteter berechneter Wert (die Steigung) mit einem hypothetischen Wert (die Nullhypothese) verglichen wird.
quelle