Testdifferenz zwischen zwei (angepassten) r ^ 2

8

Angenommen, ich habe zwei Regressionsmodelle, eines mit drei Variablen und eines mit vier. Jeder spuckt ein angepasstes r ^ 2 aus, das ich direkt vergleichen kann.

Natürlich ist das Modell mit dem höher eingestellten r ^ 2 die bessere Anpassung, aber gibt es eine Möglichkeit, die Differenz zwischen den beiden eingestellten r ^ 2 zu testen und einen p-Wert zu erhalten?

Ich weiß, dass Sie einen Chow-Test durchführen können, um den Unterschied zwischen Steigungen zu testen, aber das ist Varianz, also denke ich nicht, dass ich danach suche.

Bearbeiten: Ein Modell enthält nicht einfach eine Teilmenge von Variablen aus dem anderen Modell, sonst würde ich wahrscheinlich schrittweise Regression verwenden.

In Modell 1 habe ich vier Variablen: W, X, Y und Z.

In Modell 2 habe ich drei Variablen: W, X und (Y + Z) / 2.

Die Idee ist, dass, wenn Y und Z konzeptionell ähnlich sind, das Modell bessere Vorhersagen treffen kann, indem diese beiden Variablen vor der Eingabe in das Modell gruppiert werden.

Jeff
quelle
3
Sind die Modelle verschachtelt (dh sind die Modelle bis auf die eine Variable im Modell mit vier Variablen gleich?)
Andy W
Gutes Q .. Nein, sind sie nicht, aber nah. Ein Modell verwendet vier Variablen, WXY und Z. Das andere Modell hat drei Variablen, WX und (Y + Z) / 2. Obwohl Y und Z im zweiten Modell gleich gewichtet sein können oder nicht.
Jeff
1
Sie sollten Ihre Frage mit diesen Informationen aktualisieren, versuchen, die Modelle, die Sie mathematisch anpassen, aufzuschreiben und die Transformation in "Y und Z" und das, was Sie mit dieser Transformation erreichen möchten, so explizit wie möglich zu beschreiben.
Andy W
Nun, bleiben wir vorerst bei einem einfachen Durchschnitt ... Q wurde aktualisiert, danke!
Jeff
1
Ja, die Modelle sind verschachtelt. Um dies zu sehen, können Sie Modell 1 in W, X, (Y + Z) / 2 und (sagen wir) (YZ) / 2 umschreiben, um zu zeigen, dass Modell 2 nur eine Variable eliminiert.
whuber

Antworten:

8

Wie Whuber sagte, handelt es sich tatsächlich um verschachtelte Modelle, und daher kann ein Likelihood-Ratio-Test angewendet werden . Da immer noch nicht genau klar ist, welche Modelle Sie angeben, werde ich sie in diesem Beispiel nur neu schreiben.

Modell 1 kann also sein:

Y=a1+B11(X)+B12(W)+B13(Z)+e1

Und Modell 2 kann sein (ich ignoriere die Division durch 2, aber diese Aktion hat keine Konsequenz für Ihre Frage):

Y=a2+B21(X)+B22(W+Z)+e2

Welches kann umgeschrieben werden als:

Y=a2+B21(X)+B22(W)+B22(Z)+e2

B12B13W+Z2W+Z

Modellanpassungsstatistiken (wie Mallows CP, der bereits von bill_080 erwähnt wurde, und andere Beispiele sind AIC und BIC ) werden häufig verwendet, um nicht verschachtelte Modelle zu bewerten. Diese Statistiken folgen keinen bekannten Verteilungen (wie die Log-Likelihood, Chi-Quadrat ), und daher kann den Unterschieden in diesen Statistiken zwischen Modellen kein p-Wert zugewiesen werden.

Andy W.
quelle
0

Angesichts des Setups in Andy W Antwort, wenn man das Modell schätzt

Y=a3+B31(X)+B32(W+Z)+B33(Z)+e3

B33B33B12B13B33

mcfanda
quelle
R2
Ja, der Inferenztest auf B_33 entspricht dem Testen der Differenz zwischen den beiden R ^ 2 (angepasst oder nicht) von Modell1 und Modell2
mcfanda