Ich arbeite derzeit an einer Reihe von Poisson-Zeitreihenmodellen, die versuchen, den Effekt einer Änderung der Art und Weise, wie die Zählungen erhalten wurden (Wechsel von einem Diagnosetest zu einem anderen), abzuschätzen und gleichzeitig andere Trends im Laufe der Zeit zu kontrollieren (z. B. eine allgemeine Zunahme der Inzidenz von Krankheiten). Ich habe Daten für verschiedene Websites.
Während ich auch an GAMs herumgebastelt habe, habe ich eine Reihe ziemlich grundlegender GLMs mit Zeittrends angepasst und dann die Ergebnisse zusammengefasst. Der Code dafür würde in SAS ungefähr so aussehen:
PROC GENMOD data=work.data descending;
model counts = dependent_variable time time*time / link=log dist = poisson;
run;
oder dies in R:
glm(counts ~ dependent_variable + time + time*time, family="poisson")
Nehmen Sie dann diese Schätzungen und bündeln Sie sie über die verschiedenen Standorte. Es wurde auch vorgeschlagen, dass ich versuche, ein Poisson-Mischmodell mit einer zufälligen Steigung und einem zufälligen Schnittpunkt für jede Site zu verwenden, anstatt zu bündeln. Im Grunde genommen hätten Sie also den festen Effekt von abhängige_Variable, dann einen zufälligen Effekt für den Achsenabschnitt und die Zeit (oder im Idealfall Zeit und Zeit ^ 2, obwohl ich verstehe, dass das etwas haarig wird).
Mein Problem ist, dass ich keine Ahnung habe, wie ich eines dieser Modelle anpassen soll, und es scheint, dass bei gemischten Modellen die Dokumentation aller plötzlich sehr undurchsichtig wird. Hat jemand eine einfache Erklärung (oder einen Code), wie man das anpasst, worauf ich achten möchte, und worauf man achten muss?
g <- lmer(y ~ x + (1+t+I(t^2)|ID), family="poisson")
, erhöhte das Hinzufügen des dritten zufälligen Effekts (durch Tippen ) die Rechenzeit von ungefähr 0,75 Sekunden auf ungefähr 11 Sekunden. Mit zunehmender Stichprobengröße nimmt wahrscheinlich auch die Zunahme der Rechenzeit zu.In SAS:
Aber dann gibt es natürlich viele mehr oder weniger nützliche Optionen zum Spielen.
quelle