Welche Bereiche der Statistik wurden in den letzten 50 Jahren grundlegend revolutioniert? Zum Beispiel hat Akaike vor etwa 40 Jahren mit Kollegen den Bereich der statistischen Modelldiskriminierung revolutioniert. Vor ungefähr 10 Jahren revolutionierte Hyndman mit Kollegen den Bereich der exponentiellen Glättung. Vor ungefähr XX Jahren ...
Wie kann ich die Liste möglicherweise fortsetzen, bitte mit Jahren und Namen? Mit Statistik meine ich alle vier Typen aus Bartholomews Präsidentschaftsansprache von 1995, Chambers 'größere und kleinere Statistiken zusammen, wie sie in Hands jüngster Präsidentschaftsansprache über "Moderne Statistiken" usw. enthalten sind - alles, was beruflich relevant ist.
Antworten:
Efrons Arbeit am Bootstrap fällt mir ein.
quelle
Die Anwendung der Bayes'schen Statistik mit Monte-Carlo-Methoden.
quelle
Ensemble-Methoden wie Boosten, Absacken usw. sind ein weiterer potenzieller Kandidat.
quelle
1960 rechneten die meisten Statistiker mit einem manuellen Taschenrechner mit vier Funktionen oder einem Rechenschieber oder von Hand. Großrechner fingen gerade an, einige Programme in Algol und Fortran auszuführen. Grafische Ausgabegeräte waren selten und grob. Aufgrund dieser Einschränkungen wurde die Bayes'sche Analyse aufgrund der erforderlichen Berechnungen als äußerst schwierig angesehen. Die Datenbanken wurden auf Lochkarten und Computerbandlaufwerken verwaltet, die auf wenige Megabyte begrenzt waren. Die statistische Ausbildung konzentrierte sich zunächst auf Lernformeln für T-Tests und ANOVA. Die statistische Praxis ging normalerweise nicht über solche routinemäßigen Hypothesentests hinaus (obwohl einige brillante Köpfe gerade damit begonnen hatten, Computer für tiefere Analysen zu nutzen, wie zum Beispiel das Buch von Mosteller & Wallace über die föderalistischen Papiere).
Ich erzählte diese bekannte Geschichte als Erinnerung daran, dass alle Statistiken aufgrund des Anstiegs und der Verbreitung der Rechenleistung in diesem letzten halben Jahrhundert eine Revolution erfahren haben, eine Revolution, die fast jede andere Innovation in der Statistik in dieser Zeit ermöglicht hat (mit die bemerkenswerte Ausnahme von Tukeys EDA-Methoden mit Bleistift und Papier, wie Thylacoleo bereits beobachtet hat).
quelle
John Tukeys wirklich seltsame Idee: explorative Datenanalyse. http://en.wikipedia.org/wiki/Exploratory_data_analysis
quelle
Verallgemeinerte lineare Modelle aufgrund des kürzlich verstorbenen John Nelder und Robert Wedderburn.
quelle
quelle
Es gab eine großartige Diskussion über Metaoptimierung mit dem Titel " Most Influential Ideas 1995 - 2005 ", die eine großartige Sammlung von Ideen enthält.
Das, was ich dort erwähnt habe und hier wiederholen werde, ist die "Revolution" im Konzept der Mehrfachvergleiche, insbesondere die Verlagerung von der Verwendung von FWE zu FDR-Methoden, um sehr viele Hypothesen zu testen (wie in Micro-Array oder fMRI und so weiter).
Hier ist einer der ersten Artikel, der diesen Begriff in die wissenschaftliche Gemeinschaft einführte: Benjamini, Yoav; Hochberg, Yosef (1995). "Kontrolle der Rate falscher Entdeckungen: ein praktischer und leistungsfähiger Ansatz für mehrere Tests". Zeitschrift der Royal Statistical Society
quelle
Überlebensanalyse der proportionalen Cox-Gefahren: http://en.wikipedia.org/wiki/Cox_proportional_hazards_model
quelle
Der Box-Jenkins-Ansatz zur Zeitreihenmodellierung: ARIMA-Modelle usw.
http://en.wikipedia.org/wiki/Box-Jenkins
quelle
Die Erstellung dieser Seite ;-)
quelle