Revolutionen in der Statistik der letzten 50 Jahre? [geschlossen]

10

Welche Bereiche der Statistik wurden in den letzten 50 Jahren grundlegend revolutioniert? Zum Beispiel hat Akaike vor etwa 40 Jahren mit Kollegen den Bereich der statistischen Modelldiskriminierung revolutioniert. Vor ungefähr 10 Jahren revolutionierte Hyndman mit Kollegen den Bereich der exponentiellen Glättung. Vor ungefähr XX Jahren ...

Wie kann ich die Liste möglicherweise fortsetzen, bitte mit Jahren und Namen? Mit Statistik meine ich alle vier Typen aus Bartholomews Präsidentschaftsansprache von 1995, Chambers 'größere und kleinere Statistiken zusammen, wie sie in Hands jüngster Präsidentschaftsansprache über "Moderne Statistiken" usw. enthalten sind - alles, was beruflich relevant ist.

Andre Silva
quelle
Die einzige Möglichkeit, diese Frage offen zu halten, besteht darin, ein Community-Wiki zu erstellen. Bitte kreuzen Sie den Fall an.
Robin Girard
2
Ich habe jedoch das Gefühl, dass dies subjektiv und argumentativ ist und eine ausführliche Diskussion erfordert. Bitte lesen Sie stats.stackexchange.com/faq. Ich stimme zum Schließen zu, ermutige Sie jedoch, eine spezifischere Frage zu stellen (da die Idee der Frage gut, aber gut ist zu weit).
Robin Girard
Eine der erweiterten Diskussionen, die beginnen könnte: Sind Sie sicher, dass Prof. Rob Hyndman ein Forscher war, als parzen und Rozenblatt eine exponentielle Glättung vorschlugen :)?
Robin Girard
1
Ich denke, mit der Verfügbarkeit leistungsfähigerer Computer werden verschiedene Arten von Methoden plötzlich praktisch und wichtig (würde man z. B. verstärkte Entscheidungsbäume ohne schnelle Computer verwenden?)
Andre Holzner
1
Die Beantwortung der Frage ist kein klarer Hinweis darauf, dass Sie für den Abschluss stimmen würden. Die Leute haben meinen Kommentar gesehen, sie haben Ihre Antwort gesehen, ... 10 sehr schnelle heterogene Antworten in weniger als einer Stunde! sieht aus wie ein Chatraum;)
Robin Girard

Antworten:

15

Die Anwendung der Bayes'schen Statistik mit Monte-Carlo-Methoden.

Shane
quelle
11

Ensemble-Methoden wie Boosten, Absacken usw. sind ein weiterer potenzieller Kandidat.

Dirk Eddelbuettel
quelle
9

1960 rechneten die meisten Statistiker mit einem manuellen Taschenrechner mit vier Funktionen oder einem Rechenschieber oder von Hand. Großrechner fingen gerade an, einige Programme in Algol und Fortran auszuführen. Grafische Ausgabegeräte waren selten und grob. Aufgrund dieser Einschränkungen wurde die Bayes'sche Analyse aufgrund der erforderlichen Berechnungen als äußerst schwierig angesehen. Die Datenbanken wurden auf Lochkarten und Computerbandlaufwerken verwaltet, die auf wenige Megabyte begrenzt waren. Die statistische Ausbildung konzentrierte sich zunächst auf Lernformeln für T-Tests und ANOVA. Die statistische Praxis ging normalerweise nicht über solche routinemäßigen Hypothesentests hinaus (obwohl einige brillante Köpfe gerade damit begonnen hatten, Computer für tiefere Analysen zu nutzen, wie zum Beispiel das Buch von Mosteller & Wallace über die föderalistischen Papiere).

Ich erzählte diese bekannte Geschichte als Erinnerung daran, dass alle Statistiken aufgrund des Anstiegs und der Verbreitung der Rechenleistung in diesem letzten halben Jahrhundert eine Revolution erfahren haben, eine Revolution, die fast jede andere Innovation in der Statistik in dieser Zeit ermöglicht hat (mit die bemerkenswerte Ausnahme von Tukeys EDA-Methoden mit Bleistift und Papier, wie Thylacoleo bereits beobachtet hat).

whuber
quelle
6

Verallgemeinerte lineare Modelle aufgrund des kürzlich verstorbenen John Nelder und Robert Wedderburn.

Thylacoleo
quelle
4
Jeromy Anglim
quelle
Was ist mit SAS und spss?
Shane
Und vergiss Stata nicht.
Thylacoleo
Wahrscheinlich verdient seine eigene Frage: Welches Statistikpaket hat den revolutionärsten Beitrag zur Wissenschaft und Praxis der Datenanalyse und -statistik geleistet?
Jeromy Anglim
Das wäre zu argumentativ. Ich denke, eine Antwort hier zu haben, die alle statistischen Software bestätigt, ist auf den Punkt.
Shane
@ Shane. Fair genug. Ich habe früher SPSS verwendet. Jetzt benutze ich R. R und revolutioniere die Art und Weise, wie ich über Datenanalysen nachdenke und sie durchführe. Die Datenanalyse machte Spaß. Ich kann nicht zu viel über Stata und SAS sprechen, also überlasse ich es anderen, zu rechtfertigen, warum sie revolutionär sein könnten.
Jeromy Anglim
4

Es gab eine großartige Diskussion über Metaoptimierung mit dem Titel " Most Influential Ideas 1995 - 2005 ", die eine großartige Sammlung von Ideen enthält.

Das, was ich dort erwähnt habe und hier wiederholen werde, ist die "Revolution" im Konzept der Mehrfachvergleiche, insbesondere die Verlagerung von der Verwendung von FWE zu FDR-Methoden, um sehr viele Hypothesen zu testen (wie in Micro-Array oder fMRI und so weiter).

Hier ist einer der ersten Artikel, der diesen Begriff in die wissenschaftliche Gemeinschaft einführte: Benjamini, Yoav; Hochberg, Yosef (1995). "Kontrolle der Rate falscher Entdeckungen: ein praktischer und leistungsfähiger Ansatz für mehrere Tests". Zeitschrift der Royal Statistical Society

Tal Galili
quelle
Was ist FWE und FDR? Ich nehme an, FWE ist ein familiärer Fehler, aber der andere?
Henrik
Nun, dieser Thread ist subjektiv, also wer weiß ... Jetzt im Ernst - FDR steht für Falschentdeckungsrate (Wikipedia it)
Tal Galili
3

Die Erstellung dieser Seite ;-)

user88
quelle
Ist es eine Revolution, die Seite in ein Diskussionsforum zu verwandeln;)?
Robin Girard