Unterschied zwischen Mittelwertbildung, Datenanpassung und Anpassung der Daten und Mittelwertbildung

10

Falls vorhanden, zwischen dem Anpassen einer Linie an mehrere separate "Experimente", dem Mitteln der Anpassungen oder dem Mitteln der Daten aus den separaten Experimenten und dem Anpassen der gemittelten Daten. Lassen Sie mich näher darauf eingehen:

Ich führe Computersimulationen durch, die eine Kurve erzeugen (siehe unten). Wir extrahieren eine Menge und nennen sie "A", indem wir den linearen Bereich des Diagramms anpassen (lange Zeiten). Der Wert ist einfach die Steigung des linearen Bereichs. Mit dieser linearen Regression ist natürlich ein Fehler verbunden.

Wir führen normalerweise etwa 100 dieser Simulationen mit unterschiedlichen Anfangsbedingungen durch, um einen Durchschnittswert von "A" zu berechnen. Mir wurde gesagt, dass es besser ist, die Rohdaten (des Diagramms unten) in Gruppen von beispielsweise 10 zu mitteln, dann für "A" zu passen und diese 10 "A" zusammen zu mitteln.

Ich habe keine Ahnung, ob dies irgendeinen Wert hat oder ob es besser ist, als 100 einzelne "A" -Werte anzupassen und diese zu mitteln.

Daten

Pragmatiker1
quelle
Ich bin mir nicht sicher, ob ich das verstehe: Sie messen A zu verschiedenen Zeitpunkten und schätzen dann ? Dann machst du das mehrmals und nimmst den Durchschnitt aller β 1 ? A=β0+β1tβ1
Entschuldige Nein. Die obige Darstellung ist das Ergebnis einer einzelnen Simulation (nennen wir es ein Experiment). Der anfängliche nichtlineare Bereich wird verworfen, wir passen dann eine Linie an den linearen Abschnitt an und erhalten die Steigung "A". Eine gesamte Simulation ergibt also eine einzige Schätzung von "A". Natürlich dreht sich meine Frage darum, ob die Mittelung vieler Diagramme und die Berechnung von A anders ist als die Berechnung von A für eine Reihe von Diagrammen und deren Mittelwertbildung. Hoffe das klärt sich.
Pragmatiker1
1
Ich verstehe nicht, warum das einen Unterschied machen würde? (wenn die Annahmen für die lineare Regression erfüllt sind)
Ich denke, die Anpassung geht nie schief / konvergiert nicht / gibt lächerlich steile Schätzungen, weil die Experimente jeweils klein sind? Das wäre etwas, bei dem das Kombinieren zuerst (oder hierarchischer Modelle) helfen könnte.
Björn
1
Sie können auch alle Daten zusammenfügen, aber eine Art Komponente einschließen, um zwischen Experimenten zu unterscheiden (unterschiedliche Abschnitte für jedes Experiment oder sogar unterschiedliche Steigungen), so etwas wie ein linearer Ansatz mit gemischten Modellen. Auf diese Weise können Sie eine Gesamtsteigung approximieren, aber in der Lage sein, alle "Batch" -Effekte oder Unterschiede zwischen Experimenten zu identifizieren
bdeonovic

Antworten:

2

tit

  • Querschnittsvariation in Zeitreihenmittelwerten.
  • Zeitreihenmittelwerte der Querschnittsvariation.

Die Antwort lautet im Allgemeinen nein.

Die Einrichtung:

t

Angenommen, Sie haben eine ausgeglichene Platte mit der Länge über nTn(Xt,yt)

Y=[y1y2yn]X=[X1X2Xn]

Durchschnitt der Passungen:

1Ttbt=1Tt(XtXt)1Xtyt=1TtSt1(1nixt,iyt,i)where St=1nixt,ixt,i

Anpassung der Durchschnittswerte:

Dies ist im Allgemeinen nicht gleich der Schätzung, die auf der Querschnittsvariation von Zeitreihenmittelwerten (dh dem Zwischenschätzer) basiert.

(1nix¯ix¯i)11nix¯iy¯i

x¯i=1Ttxt,i

Gepoolte OLS-Schätzung:

Vielleicht ist es nützlich, über die gepoolte OLS-Schätzung nachzudenken. Was ist es?

b^=(XX)1XY=(1nTtXtXt)1(1nTtXtyi)
bt=(XtXt)1Xtyi
=(1nTtXtXt)1(1nTtXtXtbt)

Lasst uns S=1nTiXXSt=1nXtXtE[xx]t

b^=1Tt(S1St)bt

Dies entspricht in etwa dem Durchschnitt der verschiedenen zeitspezifischen Schätzungen bt

Sonderfall: Variablen auf der rechten Seite sind zeitinvariant und firmenspezifisch

iXt1=Xt2t1t2S=Stt und wir hätten:

b^=1Ttbt

Lustiger Kommentar:

Dies ist der Fall bei Fama und Macbeth, als sie diese Technik der Mittelung von Querschnittsschätzungen anwendeten, um konsistente Standardfehler zu erhalten, wenn geschätzt wurde, wie die erwarteten Renditen mit der Kovarianz der Unternehmen mit dem Markt (oder anderen Faktorladungen) variieren.

Das Fama-Macbeth-Verfahren ist eine intuitive Methode, um konsistente Standardfehler im Panel-Kontext zu erhalten, wenn Fehlerterme im Querschnitt korreliert, aber zeitlich unabhängig sind. Eine modernere Technik, die ähnliche Ergebnisse liefert, ist das pünktliche Clustering.

Matthew Gunn
quelle
1

(Hinweis: Ich habe nicht genug Ruf, um einen Kommentar abzugeben, daher poste ich dies als Antwort.)

y¯[x]=y[x]yxy1[x1]=y2[x1]=2y1[x2]=1y1[x2]=3y¯[x1]=y¯[x2]=2x1x2

Beachten Sie, dass die meisten wissenschaftlichen Softwareplattformen über Tools zum Berechnen / Aktualisieren einer echten "Online" -Anpassung der kleinsten Quadrate (bekannt als rekursive kleinste Quadrate ) verfügen sollten . So können alle Daten verwendet werden (falls dies wünschenswert ist).

GeoMatt22
quelle
1
Die Antwort von fcop wurde gelöscht. Sie können Ihre Antwort leicht ändern
Glen_b -Reinstate Monica