Ich frage mich, ob es einen Unterschied in der Interpretation macht, ob nur die abhängigen, sowohl die abhängigen als auch die unabhängigen Variablen oder nur die unabhängigen Variablen log-transformiert werden.
Betrachten Sie den Fall von
log(DV) = Intercept + B1*IV + Error
Ich kann die IV als prozentuale Erhöhung interpretieren, aber wie ändert sich dies, wenn ich habe
log(DV) = Intercept + B1*log(IV) + Error
oder wenn ich habe
DV = Intercept + B1*log(IV) + Error
?
regression
data-transformation
interpretation
regression-coefficients
logarithm
r
dataset
stata
hypothesis-testing
contingency-tables
hypothesis-testing
statistical-significance
standard-deviation
unbiased-estimator
t-distribution
r
functional-data-analysis
maximum-likelihood
bootstrap
regression
change-point
regression
sas
hypothesis-testing
bayesian
randomness
predictive-models
nonparametric
terminology
parametric
correlation
effect-size
loess
mean
pdf
quantile-function
bioinformatics
regression
terminology
r-squared
pdf
maximum
multivariate-analysis
references
data-visualization
r
pca
r
mixed-model
lme4-nlme
distributions
probability
bayesian
prior
anova
chi-squared
binomial
generalized-linear-model
anova
repeated-measures
t-test
post-hoc
clustering
variance
probability
hypothesis-testing
references
binomial
profile-likelihood
self-study
excel
data-transformation
skewness
distributions
statistical-significance
econometrics
spatial
r
regression
anova
spss
linear-model
hoch oben
quelle
quelle
Antworten:
Charlie liefert eine nette, korrekte Erklärung. Die Statistical Computing-Site der UCLA enthält einige weitere Beispiele: http://www.ats.ucla.edu/stat/sas/faq/sas_interpret_log.htm und http://www.ats.ucla.edu/stat/mult_pkg/ faq / general / log_transformed_regression.htm
Um Charlies Antwort zu ergänzen, finden Sie unten spezifische Interpretationen Ihrer Beispiele. Wie immer wird bei Koeffizienteninterpretationen davon ausgegangen, dass Sie Ihr Modell verteidigen können, dass die Regressionsdiagnose zufriedenstellend ist und dass die Daten aus einer gültigen Studie stammen.
Beispiel A : Keine Transformationen
"Eine Erhöhung der IV um eine
B1
Einheit ist mit einer Erhöhung der DV um ( ) Einheiten verbunden."Beispiel B : Ergebnis transformiert
"Eine Erhöhung der IV um eine Einheit ist mit einer
B1 * 100
Erhöhung der DV um ( ) Prozent verbunden."Beispiel C : Belichtung transformiert
"Eine Erhöhung der IV um ein Prozent ist mit einer
B1 / 100
Erhöhung der DV um ( ) Einheiten verbunden."Beispiel D : Ergebnis transformiert und Exposition transformiert
"Eine Erhöhung der IV um ein
B1
Prozent ist mit einer Erhöhung der DV um ( ) Prozent verbunden."quelle
Nach der gleichen Logik haben wir für das Level-Log-Modell
quelle
Der Hauptzweck der linearen Regression besteht darin, eine mittlere Differenz der Ergebnisse zu schätzen, indem benachbarte Ebenen eines Regressors verglichen werden. Es gibt viele Arten von Mitteln. Das arithmetische Mittel kennen wir am besten.
Der AM wird unter Verwendung von OLS und nicht transformierten Variablen geschätzt. Das geometrische Mittel ist unterschiedlich:
Praktisch ist ein GM-Unterschied ein multiplikativer Unterschied: Sie zahlen X% einer Zinsprämie, wenn Sie einen Kredit aufnehmen, Ihr Hämoglobinspiegel sinkt um X%, nachdem Sie mit Metformin begonnen haben, und die Ausfallrate von Federn steigt um X% als Bruchteil der Breite. In all diesen Fällen ist ein roher Mittelwertunterschied weniger sinnvoll.
log(y) ~ x
y ~ log(x, base=2)
Schließlich werden
log(y) ~ log(x)
einfach beide Definitionen angewendet, um eine multiplikative Differenz zu erhalten, die Gruppen vergleicht, deren Expositionsniveaus sich multiplikativ unterscheiden.quelle