Es gibt einige terminologische Unterschiede, bei denen dasselbe Ding in verschiedenen Disziplinen unterschiedliche Namen nennt:
- Längsschnittdaten in der Biostatistik sind wiederholte Beobachtungen derselben Personen = Paneldaten in der Ökonometrie.
- Das Modell für eine binär abhängige Variable, in der die Wahrscheinlichkeit von 1 als modelliert wird, wird in der Ökonometrie als Logitmodell und in der Biostatistik als logistisches Modell bezeichnet. Biostatistiker neigen dazu, in Bezug auf Quotenverhältnisse mit logistischer Regression zu arbeiten, da ihre x häufig binär sind, sodass die Quotenverhältnisse die relativen Häufigkeiten des Ergebnisses des Interesses an den beiden Bevölkerungsgruppen darstellen. Dies ist eine so verbreitete Interpretation, dass Sie häufig eine kontinuierliche Variable sehen, die in zwei Kategorien (niedriger versus hoher Blutdruck) umgewandelt wird, um diese Interpretation zu vereinfachen.1 / ( 1 + exp[ - x′β] )X
- Die "Schätzgleichungen" der Statistiker sind die "Momentbedingungen" der Ökonomen. Die Schätzungen der Statistiker sind Extremwertschätzer der Ökonomen.M
Es gibt terminologische Unterschiede, bei denen derselbe Begriff unterschiedliche Bedeutungen in verschiedenen Disziplinen hat:
- Feste Effekte stehen für das in der Regressionsgleichung für ANOVA-Statistiker und für einen "innerhalb" -Schätzer für Ökonomen.X′β
- Robuste Inferenz bedeutet für Ökonomen heteroskedastizitätskorrigierte Standardfehler (mit Erweiterungen zu gruppierten Standardfehlern und / oder autokorrelationskorrigierten Standardfehlern) und Methoden, die für Statistiker robust gegenüber weitaus Ausreißern sind.
- Es scheint, dass Ökonomen eine lächerliche Vorstellung davon haben, dass geschichtete Stichproben solche sind, bei denen die Wahrscheinlichkeiten der Selektion zwischen den Beobachtungen variieren. Diese sollten als Stichproben mit ungleichen Wahrscheinlichkeiten bezeichnet werden. Geschichtete Stichproben sind solche, bei denen die Grundgesamtheit nach vor der Stichprobe bekannten Merkmalen in vordefinierte Gruppen aufgeteilt wird .
- Das "Data Mining" der Ökonomen (zumindest in der Literatur der 1980er Jahre) bedeutete mehrere Tests und damit verbundene Fallstricke, die in Harrells Buch wunderbar erklärt wurden . Data-Mining-Verfahren der Informatiker (und Statistiker) sind nicht parametrische Methoden zum Auffinden von Mustern in den Daten, die auch als statistisches Lernen bezeichnet werden .
Ich betrachte die einzigartigen Beiträge der Ökonometrie als
- Möglichkeiten, mit Endogenität und schlecht spezifizierten Regressionsmodellen umzugehen, unter Berücksichtigung, wie mpiktas in einer anderen Antwort erläutert hat , dass (i) die erklärenden Variablen selbst zufällig sein können (und daher mit Regressionsfehlern korrelieren, die zu Verzerrungen bei Parameterschätzungen führen), (ii) Modelle können unter ausgelassenen Variablen leiden (die dann Teil des Fehlerterms werden), (iii) es kann eine unbeobachtete Heterogenität der Reaktion von Wirtschaftsakteuren auf die Stimuli geben, was die Standardregressionsmodelle kompliziert. Angrist & Pischke ist eine wundervolle Übersicht über diese Themen, und Statistiker werden viel darüber lernen, wie man daraus eine Regressionsanalyse macht. Zumindest sollten Statistiker die Regression instrumenteller Variablen lernen und verstehen.
- χ2s2( X′X)- 1
- Es gab viel Arbeit im Zeitbereich mit regelmäßig verteilten Prozessen - so werden makroökonomische Daten gesammelt. Die einzigartigen Beiträge umfassen integrierte und kointegrierte Prozesse sowie autoregressive Methoden der bedingten Heteroskedastizität ((G) ARCH). Da ich im Allgemeinen ein Mikro-Mensch bin, bin ich mit diesen weniger vertraut.
β/ σσ sprechen die Ökonomen natürlich darüber.) Natürlich ist ein Nutzen, der in seinen Eingaben linear ist, aus der Perspektive der Mikroökonomie 101 eine sehr lustige Sache, obwohl einige Verallgemeinerungen zu halbkonkaven Funktionen wahrscheinlich in Mas-Collel vorgenommen werden.
Cp, DFBETA usw.), Analyse fehlender Daten (Manskis partielle Identifizierung ist sicherlich wünschenswert, aber die Aufschlüsselung nach MCAR / MAR / NMAR und die Mehrfachzuschreibung sind nützlicher) und Umfragestatistiken. Viele andere Beiträge aus der Mainstream-Statistik wurden von der Ökonometrie unterhalten und entweder als Standardmethode übernommen oder kurzfristig weitergegeben: ARMA-Modelle der 1960er-Jahre sind in der Ökonometrie wahrscheinlich besser bekannt als in der Statistik, wie manche Graduiertenprogramme In der Statistik wird derzeit möglicherweise kein Zeitreihenkurs angeboten. Schwindungsschätzer / Gratregression der 1970er Jahre sind gekommen und gegangen; Der Bootstrap der 1980er-Jahre ist eine schnelle Reaktion auf komplizierte Situationen, obwohl Ökonomen die Einschränkungen des Bootstraps besser kennen müssen; Die empirische Wahrscheinlichkeit der neunziger Jahre hat sich bei theoretischen Ökonomen stärker entwickelt als bei theoretischen Statistikern. Bayesianische Berechnungsmethoden der 2000er Jahre werden in der Ökonometrie unterhalten, aber ich bin der Meinung, dass sie zu parametrisch und zu stark modellbasiert sind, um mit dem zuvor erwähnten Robustheitsparadigma kompatibel zu sein. Ob Wirtschaftswissenschaftler das statistische Lernen / die Bioinformatik oder das in der modernen Statistik äußerst heiße raum-zeitliche Material nutzen werden, ist eine offene Frage.
Dies lässt sich am besten durch lineare Regression erklären, da dies das Hauptinstrument der Ökonometrie ist. In der linearen Regression haben wir ein Modell:
Ein weiterer Unterschied besteht darin, dass die Daten in anderen Statistikfeldern als ID-Stichprobe betrachtet werden können. In der Ökonometrie sind die Daten in vielen Fällen Stichproben aus stochastischen Prozessen, von denen iid nur ein Sonderfall ist. Daher wieder andere Fachsprache.
Das oben Genannte zu wissen, reicht normalerweise aus, um problemlos von anderen Statistikfeldern in die Ökonometrie zu wechseln. Da normalerweise das Modell angegeben wird, ist es nicht schwer herauszufinden, was was ist. Meiner persönlichen Meinung nach ist der Jargonunterschied zwischen maschinellem Lernen und klassischer Statistik viel größer als zwischen Ökonometrie und klassischer Statistik.
Beachten Sie jedoch, dass es Begriffe gibt, die in der Statistik ohne die Ökonometrie eine verwickelte Bedeutung haben. Das beste Beispiel sind feste und zufällige Effekte. Wikipedia-Artikel zu diesen Begriffen sind ein Durcheinander und mischen Ökonometrie und Statistik.
quelle
Ein subtiler Unterschied ist, dass Ökonomen manchmal den Fehlerbegriffen in Modellen Bedeutung zuschreiben. Dies gilt insbesondere für "strukturelle" Ökonomen, die glauben, dass Sie strukturelle Parameter schätzen können, die für Interesse oder individuelle Heterogenität stehen.
Ein Klassenbeispiel hierfür ist der Probit. Während Statistiker im Allgemeinen nicht wissen, was den Fehlerterm verursacht, betrachten Ökonomen die Fehlerterme in Regressionen häufig als Heterogenität der Präferenzen. Für den Probit-Fall könnten Sie die Entscheidung einer Frau modellieren, sich dem Arbeitsmarkt anzuschließen. Dies wird durch eine Vielzahl von Variablen bestimmt, aber der Fehlerterm stellt einen unbeobachteten Grad dar, in dem die individuellen Präferenzen für die Arbeit variieren können.
quelle
Natürlich sind alle allgemeinen Aussagen zu allgemein. Ich habe jedoch die Erfahrung gemacht, dass die Ökonometrie sich um kausale Zusammenhänge kümmert und die Statistik sich mehr für die Vorhersage interessiert.
Auf der ökonomischen Seite kann man die Literatur der "Glaubwürdigkeitsrevolution" ( Mostly Harmless Econometrics , etc) nicht umgehen . Ökonomen konzentrieren sich auf die Auswirkungen einer bestimmten Behandlung auf ein bestimmtes Ergebnis, wobei sie sich auf die Bewertung und Empfehlung der Politik konzentrieren.
Auf der Statistikseite sehen Sie den Aufstieg von Data Mining / maschinellem Lernen mit Anwendungen für Online-Analytik und Genetik als bemerkenswerte Beispiele. Hier sind Forscher mehr daran interessiert, Verhalten oder Beziehungen vorherzusagen, als sie genau zu erklären. Sie suchen eher nach Mustern als nach Ursachen.
Ich möchte auch erwähnen, dass Statistiker traditionell mehr an experimenteller Gestaltung interessiert waren und auf die landwirtschaftlichen Experimente in den 1930er Jahren zurückgingen.
quelle
Ich habe festgestellt, dass Ökonomen im Vergleich zu dem, was ich als Standardstatistik bezeichne, nur ungern schematische oder datenbasierte Grafiken verwenden. Ein wichtiges Beispiel ist die Berichterstattung über die Regression, die in der Ökonometrie natürlich noch zentraler ist als anderswo. Moderne Einführungen in die Regression durch Statistiker betonen den Wert des Zeichnens der Daten und der Ergebnisse der Regression, einschließlich diagnostischer Diagramme, während die Behandlung in ökonometrischen Texten deutlich formeller ist. Führende Texte in der Ökonometrie enthalten nicht viele Grafiken und fördern deren Wert nicht stark.
Es ist schwierig, dies zu analysieren, ohne dass das Risiko besteht, undiplomatisch oder schlimmer zu wirken, aber ich würde eine Kombination der folgenden Faktoren als beitragend erachten.
Verlangen nach Strenge. Ökonomen neigen dazu, misstrauisch oder feindlich gegenüber dem Lernen aus den Daten zu sein, und ziehen es nachdrücklich vor, Entscheidungen auf der Grundlage formaler Tests zu treffen (wenn sie nicht aus einem Theorem hervorgehen). Dies hängt mit der Präferenz für Modelle zusammen, die auf "Theorie" basieren (obwohl dies nur bedeuten kann, dass ein Prädiktor zuvor in einem Artikel von einem Ökonomen erwähnt wurde, der nicht über Daten spricht).
Veröffentlichungspraktiken. Aufsätze für wirtschaftswissenschaftliche oder ökonometrische Fachzeitschriften sind sehr umfangreich und enthalten stark stilisierte Tabellen mit Koeffizienten, Standardfehlern, t-Statistiken und P-Werten. Das Hinzufügen von Diagrammen scheint in vielen Fällen gar nicht in Betracht gezogen zu werden, und wenn es angeboten wird, wird es möglicherweise von Überprüfern zum Ausschneiden vorgeschlagen. Diese Praktiken sind über eine Generation oder mehr eingebettet, bis sie automatisch geworden sind, mit starren Konventionen über die Festlegung von Signifikanzniveaus usw.
Grafiken für komplexe Modelle. Stillschweigend werden Diagramme ignoriert, wenn es nicht so aussieht, als gäbe es ein Diagramm, das einem komplexen Modell mit vielen Prädiktoren usw. entspricht (was in der Tat oft schwer zu entscheiden ist).
Was ich vorschlage, ist natürlich sozusagen ein Mittelunterschied, und ich erkenne in beiden Fällen eine große Variabilität.
quelle
Im Gegensatz zu den meisten anderen quantitativen Disziplinen befasst sich die Wirtschaft mit den Dingen am MARGIN. Das heißt, Grenznutzen, marginale Substitutionsrate usw. In der Analysis befasst sich die Ökonomie mit Derivaten "erster" (und höherer Ordnung).
Viele statistische Disziplinen befassen sich mit nicht derivativen Größen wie Mittelwerten und Abweichungen. Natürlich können Sie in den Bereich der marginalen und bedingten Wahrscheinlichkeitsverteilungen einsteigen, aber einige dieser Anwendungen beziehen sich auch auf die Wirtschaftlichkeit (z. B. "Erwartungswert").
quelle
Es ist keine Ökonometrie, es ist ein Kontext. Wenn Ihre Wahrscheinlichkeitsfunktion kein eindeutiges Optimum hat, betrifft dies sowohl einen Statistiker als auch einen Ökonomen. Wenn Sie nun eine Annahme vorschlagen, die aus der Wirtschaftstheorie stammt und die Parametrisierung so einschränkt, dass der Parameter identifiziert wird, kann dies als Ökonometrie bezeichnet werden, aber die Annahme könnte aus einem beliebigen inhaltlichen Bereich stammen.
Exogenität ist eine philosophische Angelegenheit. Unter http://andrewgelman.com/2009/07/disputes_about/ finden Sie einen Vergleich verschiedener Ansichten, in denen Ökonomen dies normalerweise so verstehen wie Rubin.
Also, kurz gesagt, nehmen Sie entweder den Jargon an, den Ihr Lehrer verwendet, oder bleiben Sie offen und lesen Sie weit.
quelle
Ökonomen interessieren sich fast ausschließlich für kausale Inferenz, während Statistiker auch Modelle zur Vorhersage von Ergebnissen verwenden. Infolgedessen konzentrieren sich die Ökonomen mehr auf die Exogenität (wie bereits erwähnt). Reduced Form-Ökonomen und Struktur-Ökonomen kommen auf unterschiedliche Weise auf diese kausalen Interpretationen.
Ökonomen mit reduzierter Form beschäftigen sich häufig mit der Exogenität mithilfe instrumenteller Variablentechniken (während IV von Statistikern viel seltener verwendet wird).
Strukturökonomen erhalten kausale Interpretationen von Parametern, indem sie sich auf eine Menge Theorie stützen, die in der Arbeit von Statistikern selten vorkommt.
quelle
Als Statistiker denke ich allgemeiner darüber nach. Wir haben Biometrie und Ökonometrie. In diesen beiden Bereichen werden Statistiken zur Lösung von Problemen verwendet. Mit Biometrie beschäftigen wir uns mit biologischen / medizinischen Problemen, während sich Ökonometrie mit Ökonomie befasst. Ansonsten wären sie gleich, mit der Ausnahme, dass unterschiedliche Disziplinen unterschiedliche statistische Techniken betonen. In der Biometrie werden häufig Überlebensanalysen und Kontingenztabellenanalysen eingesetzt. Für die Ökonometrie werden häufig Zeitreihen verwendet. Die Regressionsanalyse ist beiden gemeinsam. Nachdem ich die Antworten zu terminologischen Unterschieden zwischen Ökonomie und Biostatistik gesehen habe, scheint es, dass sich die eigentliche Frage hauptsächlich um die Terminologie handelte und ich mich wirklich nur mit den beiden anderen befasste. Die Antworten sind so gut, dass ich nichts hinzufügen kann. Die Antworten von StasK haben mir besonders gut gefallen. Als Biostatistiker denke ich jedoch, dass wir das logistische Modell und das logistische Modell austauschbar verwenden. Wir nennen log (p / [1-p]) die logit-Transformation.
quelle