Ich habe 2 abhängige Variablen (DVs), deren Punktzahl durch die Menge von 7 unabhängigen Variablen (IVs) beeinflusst werden kann. DVs sind kontinuierlich, während der Satz von IVs aus einer Mischung aus kontinuierlichen und binär codierten Variablen besteht. (Im folgenden Code werden fortlaufende Variablen in Großbuchstaben und binäre Variablen in Kleinbuchstaben geschrieben.)
Ziel der Studie ist es herauszufinden, wie diese DVs durch IVs-Variablen beeinflusst werden. Ich schlug das folgende Modell der multivariaten multiplen Regression (MMR) vor:
my.model <- lm(cbind(A, B) ~ c + d + e + f + g + H + I)
Um die Ergebnisse zu interpretieren, nenne ich zwei Aussagen:
summary(manova(my.model))
Manova(my.model)
Die Ausgaben beider Aufrufe werden unten eingefügt und unterscheiden sich erheblich. Kann jemand bitte erläutern, welche der beiden Aussagen ausgewählt werden sollte, um die Ergebnisse von MMR richtig zusammenzufassen, und warum? Jeder Vorschlag wäre sehr dankbar.
Ausgabe mit summary(manova(my.model))
Anweisung:
> summary(manova(my.model))
Df Pillai approx F num Df den Df Pr(>F)
c 1 0.105295 5.8255 2 99 0.004057 **
d 1 0.085131 4.6061 2 99 0.012225 *
e 1 0.007886 0.3935 2 99 0.675773
f 1 0.036121 1.8550 2 99 0.161854
g 1 0.002103 0.1043 2 99 0.901049
H 1 0.228766 14.6828 2 99 2.605e-06 ***
I 1 0.011752 0.5887 2 99 0.556999
Residuals 100
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Ausgabe mit Manova(my.model)
Anweisung:
> library(car)
> Manova(my.model)
Type II MANOVA Tests: Pillai test statistic
Df test stat approx F num Df den Df Pr(>F)
c 1 0.030928 1.5798 2 99 0.21117
d 1 0.079422 4.2706 2 99 0.01663 *
e 1 0.003067 0.1523 2 99 0.85893
f 1 0.029812 1.5210 2 99 0.22355
g 1 0.004331 0.2153 2 99 0.80668
H 1 0.229303 14.7276 2 99 2.516e-06 ***
I 1 0.011752 0.5887 2 99 0.55700
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
lm
ich die Funktion verwende, eine multivariate Regression nur durch Angabe von mehr als einer Antwortvariablen innerhalb derlm
Funktion durchführe. Ich habe gelernt, dass durch die Verwendung derlm
Funktion, wenn meine Daten tatsächlich multivariat sind, ein fehlerhaftes Ergebnis für Standardfehler erzielt wird. Aber in diesem Fallmy.model <- lm(cbind(A, B) ~ c + d + e + f + g + H + I);
wirdvcov(my.model )
der Standardfehler unterschätzen oderlm
wird auf intelligente Weise die Korrelation zwischen den abhängigen Variablen einstellen?Nun, ich habe immer noch nicht genug Punkte, um die vorherige Antwort zu kommentieren, und deshalb schreibe ich sie als separate Antwort, also bitte verzeihen Sie mir. (Wenn möglich, schiebe mich bitte über die 50 Wiederholungspunkte;)
Hier sind also die 2 Cent: Bei den Fehlertests der Typen I, II und III handelt es sich im Wesentlichen um Abweichungen, die darauf zurückzuführen sind, dass die Daten nicht ausgeglichen sind. (Defn Unbalanced: Nicht gleiche Anzahl von Beobachtungen in jeder der Schichten). Wenn die Daten ausgeglichen sind, liefern die Fehlertests Typ I, II und III genau dieselben Ergebnisse.
Was passiert also, wenn die Daten unausgeglichen sind?
Betrachten Sie ein Modell, das zwei Faktoren A und B enthält. Es gibt also zwei Haupteffekte und eine Wechselwirkung, AB. SS (A, B, AB) zeigt das vollständige Modell an. SS (A, B) zeigt das Modell ohne Wechselwirkung an. SS (B, AB) gibt das Modell an, das die Auswirkungen von Faktor A usw. nicht berücksichtigt.
Diese Notation macht jetzt Sinn. Denken Sie daran.
Typ I, auch "sequentielle" Quadratsumme genannt:
1)
SS(A) for factor A.
2)
SS(B | A) for factor B.
3)
SS(AB | B, A) for interaction AB.
Also schätzen wir zuerst den Haupteffekt von A, den Effekt von B bei A und dann die Wechselwirkung AB bei A und B. (Hier treten bei unausgeglichenen Daten die Unterschiede auf. Wenn wir zuerst den Haupteffekt schätzen, dann den Haupteffekt von anderen und dann Interaktion in einer "Sequenz")
Typ II:
1)
SS(A | B) for factor A.
2)
SS(B | A) for factor B.
Typ II testet die Signifikanz des Haupteffekts von A nach B und B nach A. Warum gibt es kein SS (AB | B, A)? Vorbehaltlich ist, dass die Typ-II-Methode nur angewendet werden kann, wenn wir bereits getestet haben, dass die Wechselwirkung unbedeutend ist. Da es keine Wechselwirkung gibt (SS (AB | B, A) ist unbedeutend), hat der Test Typ II eine bessere Leistung als Typ III
Typ III:
1)
SS(A | B, AB) for factor A.
2)
SS(B | A, AB) for factor B.
Wir testeten also die Interaktion während Typ II und die Interaktion war signifikant. Jetzt müssen wir den Typ III verwenden, da er den Interaktionsterm berücksichtigt.
Wie @caracal bereits sagte: Wenn die Daten ausgeglichen sind, sind die Faktoren orthogonal, und die Typen I, II und III liefern alle die gleichen Ergebnisse. Ich hoffe das hilft !
Offenlegung: Das meiste davon ist nicht meine eigene Arbeit. Ich fand diese ausgezeichnete Seite verlinkt und hatte das Gefühl, sie weiter zu reduzieren, um sie einfacher zu machen.
quelle