Ich führe eine GAM-basierte Regression mit dem R-Paket gamlss durch und gehe von einer Null- Inflations -Beta-Verteilung der Daten aus. Ich habe nur eine einzige erklärende Variable in meinem Modell, also ist es im Grunde : mymodel = gamlss(response ~ input, family=BEZI)
.
Der Algorithmus gibt mir den Koeffizienten für den Einfluss der erklärenden Variablen auf den Mittelwert ( μ ) und den zugehörigen p-Wert für k ( Eingabe ) = 0 , so etwas wie:
Mu link function: logit
Mu Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -2.58051 0.03766 -68.521 0.000e+00
input -0.09134 0.01683 -5.428 6.118e-08
Wie Sie im obigen Beispiel sehen können, wird die Hypothese von mit hoher Sicherheit verworfen.
Ich führe dann das Nullmodell aus: null = gamlss(response ~ 1, family=BEZI)
und vergleiche die Wahrscheinlichkeiten mit einem Likelihood-Ratio-Test:
p=1-pchisq(-2*(logLik(null)[1]-logLik(mymodel)[1]), df(mymodel)-df(null)).
In einigen Fällen erhalte ich selbst wenn die Koeffizienten am Eingang als hoch signifikant gemeldet werden (wie oben). Ich finde das ziemlich ungewöhnlich - zumindest ist es in meiner Erfahrung mit linearer oder logistischer Regression nie passiert (tatsächlich ist dies auch nie passiert, als ich nullangepasstes Gamma mit Gamlss verwendet habe).
Meine Frage ist: Kann ich der Abhängigkeit zwischen Antwort und Eingabe immer noch vertrauen, wenn dies der Fall ist?