Testen der Gleichheit von Koeffizienten aus zwei verschiedenen Regressionen

44

Dies scheint ein grundlegendes Problem zu sein, aber ich habe gerade festgestellt, dass ich eigentlich nicht weiß, wie man die Gleichheit von Koeffizienten aus zwei verschiedenen Regressionen testet. Kann jemand etwas Licht ins Dunkel bringen?

Nehmen wir formal an, ich habe die folgenden zwei Regressionen ausgeführt: und wobei sich auf die Entwurfsmatrix der Regression und auf den Vektor der Koeffizienten in der Regression bezieht . Beachten Sie, dass und möglicherweise sehr unterschiedlich sind, unterschiedliche Dimensionen usw. Ich bin beispielsweise daran interessiert, ob .y 2 = X 2 β 2 + ε 2 X i i β i i X 1 X 2 β 11 & ne; β 21

y1=X1β1+ϵ1
y2=X2β2+ϵ2
XiiβiiX1X2β^11β^21

Wenn diese aus derselben Regression stammen würden, wäre dies trivial. Aber da sie von verschiedenen stammen, bin ich mir nicht ganz sicher, wie ich das machen soll. Hat jemand eine Idee oder kann mir ein paar Hinweise geben?

Mein Problem im Detail: Meine erste Intuition war es, die Konfidenzintervalle zu betrachten, und wenn sie sich überschneiden, würde ich sagen, dass sie im Wesentlichen gleich sind. Diese Prozedur hat jedoch nicht die richtige Größe des Tests (dh jedes einzelne Konfidenzintervall hat beispielsweise , aber eine gemeinsame Betrachtung hat nicht die gleiche Wahrscheinlichkeit). Meine "zweite" Intuition war es, einen normalen T-Test durchzuführen. Das heißt, nimmα=0.05

β11β21sd(β11)

Dabei wird als Wert meiner Nullhypothese verwendet. Dies berücksichtigt jedoch nicht die Schätzungsunsicherheit von , und die Antwort kann von der Reihenfolge der Regressionen abhängen (die ich als 1 und 2 bezeichne). β 21β21β21

Meine dritte Idee war, dies wie in einem Standardtest für die Gleichheit zweier Koeffizienten aus derselben Regression zu tun,

β11β21sd(β11β21)

Die Komplikation ergibt sich aus der Tatsache, dass beide aus unterschiedlichen Regressionen stammen. Beachten Sie, dass

Var(β11β21)=Var(β11)+Var(β21)2Cov(β11,β21)
aber seitdem Sie stammen aus verschiedenen Regressionen. Wie würde ich ?Cov(β11,β21)

Dies veranlasste mich, diese Frage hier zu stellen. Dies muss eine Standardprozedur / ein Standardtest sein, aber ich konnte nichts finden, das diesem Problem ausreichend ähnlich war. Wenn mich also jemand auf das richtige Verfahren hinweisen kann, wäre ich sehr dankbar!

coffeinjunky
quelle
2
Dies scheint mit der Modellierung struktureller / simultaner Gleichungen zu zusammenhängen. Eine Möglichkeit, dieses Problem zu lösen, besteht darin, beide Gleichungen gleichzeitig anzupassen, z. B. mit maximaler Wahrscheinlichkeit, und dann einen Wahrscheinlichkeitsquotiententest eines beschränkten Modells (Modell mit gleichen Parametern) mit einem nicht beschränkten Modell zu vergleichen. Praktisch ist dies mit der SEM-Software (Mplus, Lavaan usw.) möglich
tomka
2
Kennen Sie die scheinbar unabhängige Regression (SUR)?
Dimitriy V. Masterov
2
Ich denke, die Frage, die Sie stellen, dh wie Sie die cov beider Koeffizienten erhalten, wird durch SEM gelöst, wodurch Sie die var-cov-Matrix aller Koeffizienten erhalten. Dann könnten Sie möglicherweise einen Wald-Test in der von Ihnen vorgeschlagenen Weise anstelle eines LRT-Tests verwenden. Darüber hinaus können Sie auch Resampling / Bootstrap verwenden, was möglicherweise direkter ist.
Tomka
3
Ja, da hast du recht, @tomka. In einem SUR-Modell (das Sie grob gesagt als Sonderfall von SEM-Modellen bezeichnen können) kann ich den entsprechenden Test erhalten. Danke, dass du mich in diese Richtung gelenkt hast! Ich glaube, ich habe nicht darüber nachgedacht, weil es ein bisschen so aussieht, als würde man einen Spatz mit einer Kanone erschießen, aber ich kann mir keinen besseren Weg vorstellen. Wenn Sie eine Antwort schreiben, werde ich sie als richtig markieren. Ansonsten werde ich es bald selbst mit einer kurzen theoretischen Erklärung und möglicherweise mit einem Beispiel aufschreiben.
Coffeinjunky
1
SUR ist ziemlich einfach zu implementieren. Hier ist ein Beispiel mit Stata . Mit R möchten Sie systemfit .
Dimitriy V. Masterov

Antworten:

30

Obwohl dies keine übliche Analyse ist, ist sie wirklich von Interesse. Die akzeptierte Antwort entspricht der Art und Weise, wie Sie Ihre Frage gestellt haben, aber ich werde eine andere einigermaßen akzeptierte Technik bereitstellen, die möglicherweise gleichwertig ist oder nicht (ich überlasse es besseren Köpfen, dies zu kommentieren).

Bei diesem Ansatz wird der folgende Z-Test verwendet:

Z=β1β2(SEβ1)2+(SEβ2)2

Wobei der Standardfehler von .βSEββ

βbβ

russellpierce
quelle
β1β2
Z=Aβ1Bβ2(SEAβ1)2+(SEBβ2)2
1
Außerdem stelle ich fest, dass das Papier den Fall behandelt, in dem ein Modell in das andere geschachtelt ist und die DVs von zwei Modellen gleich sind. Was ist, wenn diese beiden Bedingungen nicht erfüllt sind? Stattdessen habe ich Design-Matrizen der beiden Modelle gleich, aber sie haben unterschiedliche DVs. Gilt diese Formel noch? Danke vielmals!
Sibbs Gambling
1
@SibbsGambling: Vielleicht möchten Sie dies zu einer eigenständigen Frage machen, um mehr Aufmerksamkeit zu erregen.
Russellpierce
β1β2
12

Lassen Sie mich für Personen mit ähnlichen Fragen einen einfachen Überblick über die Antwort geben.

y1y2

(y1y2)=(X1  00  X2)(β1β2)+(e1e2)

Dies führt zu einer Varianz-Kovarianz-Matrix, mit der die Gleichheit der beiden Koeffizienten geprüft werden kann.

coffeinjunky
quelle
11
Ich habe die von Ihnen vorgeschlagene Methode implementiert und mit der obigen Methode verglichen. Ich fand den Hauptunterschied darin, ob die Annahme, dass die Fehlervarianz gleich ist oder nicht. Ihr Weg geht davon aus, dass die Fehlervarianz gleich ist und der Weg darüber nicht davon ausgeht.
KH Kim
2
Das hat bei mir gut funktioniert. In Stata habe ich Folgendes getan: Die expand =2, generate(indicator); generate y = cond(indicator, y2, y1); regress y i.indicator##c.X, vce(cluster id); Verwendung von gruppierten Standardfehlern erklärt, dass e1 und e2 nach dem Stapeln des Datensatzes nicht für dieselbe Beobachtung unabhängig sind.
wkschwartz
1
  • Var(β1β2)=Var(β1)+Var(β2)

  • covar(β1,β2)0

  • (Clogg, CC, Petkova, E. & Haritou, A. (1995). Statistische Methoden zum Vergleichen von Regressionskoeffizienten zwischen Modellen. American Journal of Sociology, 100 (5), 1261-1293.) Gibt eine Antwort in dem speziellen Fall von verschachtelten Gleichungen (dh, um die zweite Gleichung zu erhalten, betrachten Sie die erste Gleichung und fügen Sie ein paar erklärende Variablen hinzu) Sie sagen, es ist einfach zu implementieren.

  • Wenn ich es gut verstehe, kann in diesem speziellen Fall auch ein Haussman-Test implementiert werden. Der Hauptunterschied besteht darin, dass ihr Test die zweite (vollständige) Gleichung als wahr ansieht, während der Haussman-Test die erste Gleichung als wahr ansieht.

  • Es ist zu beachten, dass Clogg et al. (1995) nicht für Paneldaten geeignet ist. Ihr Test wurde jedoch von (Yan, J., Aseltine Jr, RH, & Harel, O. (2013)) verallgemeinert. Vergleichen von Regressionskoeffizienten zwischen verschachtelten linearen Modellen für gruppierte Daten mit verallgemeinerten Schätzgleichungen. Journal of Educational and Behavioral Statistics, 38 (2), 172-189.) Mit einem Paket in R: geepack Siehe: https://www.jstor.org/stable/pdf/41999419.pdf?refreqid=excelsior%3Aa0a3b20f2bc68223edb59e3254c234be&seq=1

Und (für das R-Paket): https://cran.r-project.org/web/packages/geepack/index.html

Alexandre Cazenave-Lacroutz
quelle