Falls vorhanden, zwischen dem Anpassen einer Linie an mehrere separate "Experimente", dem Mitteln der Anpassungen oder dem Mitteln der Daten aus den separaten Experimenten und dem Anpassen der gemittelten Daten. Lassen Sie mich näher darauf eingehen:
Ich führe Computersimulationen durch, die eine Kurve erzeugen (siehe unten). Wir extrahieren eine Menge und nennen sie "A", indem wir den linearen Bereich des Diagramms anpassen (lange Zeiten). Der Wert ist einfach die Steigung des linearen Bereichs. Mit dieser linearen Regression ist natürlich ein Fehler verbunden.
Wir führen normalerweise etwa 100 dieser Simulationen mit unterschiedlichen Anfangsbedingungen durch, um einen Durchschnittswert von "A" zu berechnen. Mir wurde gesagt, dass es besser ist, die Rohdaten (des Diagramms unten) in Gruppen von beispielsweise 10 zu mitteln, dann für "A" zu passen und diese 10 "A" zusammen zu mitteln.
Ich habe keine Ahnung, ob dies irgendeinen Wert hat oder ob es besser ist, als 100 einzelne "A" -Werte anzupassen und diese zu mitteln.
Antworten:
Die Antwort lautet im Allgemeinen nein.
Die Einrichtung:
Angenommen, Sie haben eine ausgeglichene Platte mit der Länge über nT. n ( X.t, yt)
Durchschnitt der Passungen:
Anpassung der Durchschnittswerte:
Dies ist im Allgemeinen nicht gleich der Schätzung, die auf der Querschnittsvariation von Zeitreihenmittelwerten (dh dem Zwischenschätzer) basiert.
Gepoolte OLS-Schätzung:
Vielleicht ist es nützlich, über die gepoolte OLS-Schätzung nachzudenken. Was ist es?
Lasst unsS=1nT∑iX′X St=1nX′tXt E[xx′] t
Dies entspricht in etwa dem Durchschnitt der verschiedenen zeitspezifischen Schätzungenbt
Sonderfall: Variablen auf der rechten Seite sind zeitinvariant und firmenspezifisch
Lustiger Kommentar:
Dies ist der Fall bei Fama und Macbeth, als sie diese Technik der Mittelung von Querschnittsschätzungen anwendeten, um konsistente Standardfehler zu erhalten, wenn geschätzt wurde, wie die erwarteten Renditen mit der Kovarianz der Unternehmen mit dem Markt (oder anderen Faktorladungen) variieren.
Das Fama-Macbeth-Verfahren ist eine intuitive Methode, um konsistente Standardfehler im Panel-Kontext zu erhalten, wenn Fehlerterme im Querschnitt korreliert, aber zeitlich unabhängig sind. Eine modernere Technik, die ähnliche Ergebnisse liefert, ist das pünktliche Clustering.
quelle
(Hinweis: Ich habe nicht genug Ruf, um einen Kommentar abzugeben, daher poste ich dies als Antwort.)
Beachten Sie, dass die meisten wissenschaftlichen Softwareplattformen über Tools zum Berechnen / Aktualisieren einer echten "Online" -Anpassung der kleinsten Quadrate (bekannt als rekursive kleinste Quadrate ) verfügen sollten . So können alle Daten verwendet werden (falls dies wünschenswert ist).
quelle