Ich beziehe mich auf Praktiken, die immer noch präsent sind, obwohl die Probleme (normalerweise rechnerisch), mit denen sie fertig wurden, größtenteils gelöst wurden.
Zum Beispiel wurde Yates 'Kontinuitätskorrektur erfunden, um den exakten Fisher-Test mit dem with 2- Test Sie ist jedoch nicht mehr praktikabel, da die Software jetzt den Fisher-Test auch mit großen Stichproben verarbeiten kann (ich weiß, dass dies möglicherweise kein gutes Beispiel für die "Aufrechterhaltung des Fisher-Tests" ist Präsenz ", da in Lehrbüchern wie Agrestis Categorical Data Analysis häufig anerkannt wird, dass die Korrektur von Yates" nicht mehr erforderlich ist ").
Was sind andere Beispiele für solche Praktiken?
references
philosophical
Francis
quelle
quelle
Antworten:
Ich möchte darauf hinweisen, dass ich hier auf ein kompliziertes und kontroverses Thema eingehe, das im Mittelpunkt ganzer Bücher und wahrscheinlich Tausender von Artikeln steht, aber es scheint ein faires Beispiel für diesen Thread zu sein.
quelle
Eine Methode, der ich glaube, dass viele Besucher dieser Website zustimmen, ist die schrittweise Regression. Es ist immer noch die ganze Zeit erledigt , aber Sie müssen nicht lange nach Experten auf dieser Seite suchen, die sagen, dass sie ihre Verwendung bedauern. Eine Methode wie LASSO ist sehr bevorzugt.
quelle
Meiner Ansicht nach ist es zumindest in der (angewandten) Ökonometrie mehr und mehr die Norm, die robuste oder empirische Kovarianzmatrix zu verwenden, als die "anachronistische Praxis", sich (asymptotisch) auf die korrekte Spezifikation der Kovarianzmatrix zu verlassen. Dies ist natürlich nicht unumstritten: Sehen Sie sich einige der Antworten an, die ich hier bei CrossValidated verlinkt habe, aber es ist sicherlich ein klarer Trend.
Andere Beispiele sind Paneldaten, Imbens und Wooldridge, die beispielsweise in ihren Vorlesungsfolien gegen die Verwendung der Varianz-Kovarianz-Matrix für Zufallseffekte argumentieren (implizit unter der Annahme einer gewissen Fehlspezifikation in der Varianz-Komponente als Standard):
Bei Verwendung von verallgemeinerten linearen Modellen (für Verteilungen, die zur Exponentialfamilie gehören) wird häufig empfohlen, immer den sogenannten Sandwich-Schätzer zu verwenden, anstatt sich auf korrekte Verteilungsannahmen zu verlassen (die anachronistische Praxis hier): siehe zum Beispiel diese Antwort oder Cameron-Referenz zum Zählen von Daten, da die Schätzung der Pseudomaximalwahrscheinlichkeit im Falle einer Fehlspezifikation recht flexibel sein kann (z. B. Verwendung von Poisson, wenn das negative Binom richtig wäre).
Greene schreibt in seinem Lehrbuch in Kapitel 14 (verfügbar auf seiner Website) zum Beispiel mit einer kritischen Anmerkung und geht detaillierter auf die Vor- und Nachteile dieser Praxis ein:
quelle
quelle
Die meisten anachronistischen Praktiken beruhen wahrscheinlich auf der Art und Weise, wie Statistik gelehrt wird, und auf der Tatsache, dass Analysen von einer großen Anzahl von Personen durchgeführt werden, die nur ein paar Grundklassen besucht haben. Wir unterrichten häufig eine Reihe von statistischen Standardideen und -verfahren, weil sie eine logische Folge zunehmender konzeptioneller Raffinesse bilden, die pädagogisch sinnvoll ist (vgl. Wie können wir jemals die Populationsvarianz erkennen? ). Ich bin selbst schuldig: Ich unterrichte gelegentlich Statistiken 101 und 102 und sage ständig: "Es gibt einen besseren Weg, dies zu tun, aber es geht über den Rahmen dieser Klasse hinaus." Für diejenigen Studenten, die nicht über die Einführungssequenz hinausgehen (fast alle), bleiben ihnen grundlegende, aber ersetzte Strategien.
Für ein Statistikbeispiel besteht die wahrscheinlich häufigste anachronistische Praxis darin, einige Annahmen zu testen und dann eine herkömmliche statistische Analyse durchzuführen, da der Test nicht signifikant war. Ein moderner / fortgeschrittener / vertretbarer Ansatz wäre die Verwendung einer Methode, die von Anfang an dieser Annahme standhält. Einige Referenzen für weitere Informationen:
Für Statistik 102-Beispiele ist eine beliebige Anzahl von Modellierungsmethoden veraltet:
In all diesen Fällen geht es darum, dass die Leute das tun, was sie als erstes in einem Einführungskurs gelernt haben, weil sie einfach keine fortgeschritteneren und angemesseneren Methoden kennen.
quelle
Ein sehr interessantes Beispiel sind Einheitswurzeltests in der Ökonometrie. Während es eine Vielzahl von Möglichkeiten gibt, um das Lag-Polynom einer Zeitreihe gegen eine Einheitswurzel oder für eine Einheitswurzel zu testen (z. B. der (erweiterte) Dickey-Fuller-Test oder der KPSS-Test), kann das Problem vollständig umgangen werden, wenn man die Bayes'sche Analyse verwendet . Darauf wies Sims in seinem provokanten Aufsatz mit dem Titel " Understanding Unit Rooters: A Helicopter Tour from 1991" hin.
Einheitswurzeltests bleiben gültig und werden in der Ökonometrie verwendet. Ich persönlich würde dies vor allem Menschen zuschreiben, die sich nur ungern an Bayes'sche Praktiken anpassen, aber viele konservative Ökonomen verteidigen die Praxis der Einheitswurzeltests, indem sie sagen, dass eine Bayes'sche Sicht der Welt der Prämisse der ökonometrischen Forschung widerspricht. (Das heißt, Ökonomen betrachten die Welt als einen Ort mit festen Parametern, nicht als zufällige Parameter, die von bestimmten Hyperparametern gesteuert werden.)
quelle
Entrichtung von Lizenzgebühren für hochwertige statistische Softwaresysteme. #R
quelle
Das Unterrichten / Durchführen von zweiseitigen Differenztests, ohne gleichzeitig die Äquivalenz im Bereich der Hypothesentests zu überprüfen, ist ein tiefes Bekenntnis zur Bestätigungsverzerrung .
Es gibt eine gewisse Nuance dahingehend, dass eine angemessene Leistungsanalyse mit einer durchdachten Definition der Effektgröße dagegen schützen und mehr oder weniger die gleichen Schlussfolgerungen liefern kann, aber (a) Leistungsanalysen werden bei der Präsentation von Ergebnissen so oft ignoriert, und (b) ich Ich habe noch nie eine Leistungsanalyse für beispielsweise jeden Koeffizienten, der für jede Variable in einer Mehrfachregression geschätzt wurde, gesehen, aber es ist einfach, dies für kombinierte Differenztests und Äquivalenztests (dh Relevanztests) zu tun .
quelle
Verwenden Sie ein negatives Binomialmodell anstelle eines (robusten) Poisson-Modells, um einen interessierenden Parameter in einer Zählvariablen zu identifizieren, nur weil eine Überdispersion vorliegt?
Siehe als Referenz: https://blog.stata.com/2011/08/22/use-poisson-rather-than-regress-tell-a-friend/
Der Beweis, dass Poisson im Fall von Fixeffekten robuster ist, ist relativ neu, da offenbar Bezug genommen wird auf: Wooldridge, JM, "Verteilungsfreie Schätzung einiger nichtlinearer Paneldatenmodelle", Journal of Econometrics 90 (1999), 77–97.
quelle
Hier sind einige Anachronismen:
Die neoplatonische Annahme, dass es im theoretischen Äther eine einzige "wahre" Population gibt, die ewig, fest und unbeweglich ist und anhand derer unsere unvollkommenen Proben bewertet werden können, trägt wenig zum Fortschritt von Lernen und Wissen bei.
Der Reduktionismus, der Mandaten wie Occams Rasiermesser innewohnt, ist mit der Zeit unvereinbar. OR kann wie folgt zusammengefasst werden: "Unter konkurrierenden Hypothesen sollte die mit den wenigsten Annahmen ausgewählt werden." Zu den Alternativen gehört das Epicurus- Prinzip mehrfacher Erklärungen , in dem grob gesagt wird: "Wenn mehr als eine Theorie mit den Daten übereinstimmt, behalten Sie sie alle bei."
Das gesamte Peer-Review-System bedarf dringend einer Überarbeitung.
* Bearbeiten *
Bei umfangreichen Daten, die Millionen von Features enthalten, ist keine variable Auswahlphase mehr erforderlich.
Inferenzstatistiken sind ausserdem bedeutungslos.
quelle