Wie bestimmen Statistiker, welche Verteilung für verschiedene statistische Tests geeignet ist?

8

Beispielsweise wird die für den ANOVA-Test berechnete Teststatistik mit einer F-Verteilung verglichen, während ein t-Test-Vergleichsmittel die Teststatistik mit einer t-Verteilung vergleicht.

Stu
quelle
1
Eine allgemeine Übersicht finden Sie auf Seite 3 dieses Dokuments . Es enthält ein Diagramm, das die Beziehungen zwischen vielen Verteilungen darstellt. Ganz ordentlich.
COOLSerdash
Auf einer Ebene ist die Antwort einfach: Die Verteilung ist die der Teststatistik unter der Nullhypothese. Es zu finden ist nur eine Berechnung. Die harten Teile entwickeln ein geeignetes Wahrscheinlichkeitsmodell für ein Problem, lösen eine Verlustfunktion aus und finden eine Teststatistik, die einen guten Test ergibt. Viele Verteilungen, einschließlich Normal, und , erscheinen tatsächlich am häufigsten als asymptotische Annäherungen an die tatsächlichen Verteilungen (und darin liegt ein separater Teil jeder guten Antwort). tχ2
whuber

Antworten:

12

Die vollständige Antwort auf Ihre Frage wäre ein Semester-Mathematik-Theorie-Statistikkurs (was eine gute Idee für Sie wäre, wenn Sie wirklich interessiert sind).

Aber eine kurze und teilweise Reihe von Antworten sind:

Im Allgemeinen beginnen wir mit der Normalverteilung. Es hat sich als vernünftige Annäherung für viele Situationen in der realen Welt erwiesen, und der Satz der zentralen Grenze (und andere) sagt uns, dass es eine noch bessere Annäherung ist, wenn man die Mittel einfacher Zufallsstichproben betrachtet ( Eine größere Stichprobe führt zu einer besseren Annäherung an die Normale. Daher ist die Normalverteilung häufig die Standardverteilung, die zu berücksichtigen ist, wenn kein Grund zu der Annahme besteht, dass dies keine vernünftige Annäherung ist. Obwohl es mit modernen Computern jetzt einfacher ist, nicht parametrische oder andere Tools zu verwenden, müssen wir uns nicht so sehr auf das Normale verlassen (aber Historie / Trägheit / etc. Verwendet uns weiterhin normalbasierte Methoden).

Wenn Sie eine Variable quadrieren, die aus einer Standardnormalverteilung stammt, folgt sie einer Chi-Quadrat-Verteilung. Wenn Sie Variablen aus einem Chi-Quadrat addieren, erhalten Sie ein weiteres Chi-Quadrat (Änderung der Freiheitsgrade). Dies bedeutet, dass die Varianz (skaliert) einem Chi-Quadrat folgt.

Es funktioniert auch, dass eine Funktion des Wahrscheinlichkeitsverhältnisses asymptotisch einer Chi-Quadrat-Verteilung folgt, wenn die Null wahr ist und andere Annahmen gelten.

Eine Standardnormale geteilt durch die Quadratwurzel eines Chi-Quadrats (und einige Skalierungsparameter) folgt einer t-Verteilung, sodass die gemeinsame t-Statistik (unter der Nullhypothese) dem t folgt.

Das Verhältnis von 2 Chis-Quadraten (geteilt durch Freiheitsgrade und andere Überlegungen) folgt einer F-Verteilung. Die Anova-F-Tests basieren auf dem Verhältnis von 2 Schätzungen derselben Varianz (unter Null). Da Varianzen einem Chi-Quadrat folgen, folgt das Verhältnis einem F (unter Null und Annahmen).

Kluge Köpfe haben diese Regeln ausgearbeitet, damit der Rest von uns sie anwenden kann. Ein vollständiger Mathematik- / Statistikkurs bietet mehr Informationen zur Geschichte und zu Ableitungen (und möglicherweise auch zu Alternativen). Dies war nur als schneller Überblick über die gängigsten Tests und Verteilungen gedacht.

Greg Snow
quelle
Danke, genau das habe ich gesucht. Ich denke, ich werde den Statistikkurs für Mathe-Theorie vorerst verschieben.
Stu
3

Eine andere Möglichkeit, Ihre Frage zu beantworten, ist das folgende sequentielle Denken, das ich anhand eines einfachen Beispiels veranschaulichen möchte:

1) Was ist die Nullhypothese in Bezug auf die Frage des Interesses? In den USA beträgt das durchschnittliche Einkommen beispielsweise 6000 USD pro Monat.

2) Wie können wir die Abweichung von der Nullhypothese anhand der verfügbaren Daten messen? Erster Versuch: Durchschnittseinkommen. Je weiter von 6000 entfernt, desto weniger plausibel ist die Nullhypothese und desto mehr sollten wir sie ablehnen.T=

3) Finden Sie die Verteilung von wenn die Nullhypothese wahr ist. Diese "Nullverteilung" ist die Grundlage für die Testentscheidung. In unserem Beispiel sagt uns der zentrale Grenzwertsatz, wenn die Stichprobe groß ist, dass ungefähr normalverteilt ist mit dem Mittelwert 6000 und der Standardabweichung , wobei die wahre Standardabweichung des Einkommens in den USA ist . Wir wissen, dass und durch die Stichprobenstandardabweichung geschätzt werden können .TTσ/nσnσσ^

Grundsätzlich könnten wir uns jetzt zurücklehnen und dieses Ergebnis verwenden, um Testentscheidungen zu treffen. Da wir Statistiker jedoch nett sind, versuchen wir normalerweise, die Teststatistik zu ändern, um die Nullverteilung frei von möglichst vielen datenabhängigen Informationen zu halten. In unserem einfachen Beispiel könnten wir anstelle von . Diese modifizierte Teststatistik ist immer ungefähr normal, wenn die Nullhypothese wahr ist. Unabhängig von der Stichprobengröße, dem hypothetischen Mittelwert und der Standardabweichung basiert die Testentscheidung immer auf denselben kritischen Werten (wie ). Dies ist der berühmte Z-Test mit einer Stichprobe.

T.'=(T.- -6000)/.(σ^/.n)
T.T.'±1,96
Michael M.
quelle
-2

Es gibt nur drei realitätsbasierte Verteilungen. (1) Das Binomial (2) Das Multinomial (3) Abraham De Moivres Approximator an das Binomial. Die anderen Verteilungen sind "abgeleitete" Ausdrücke mit sehr begrenztem Dynamikbereich und sehr wenig Kontakt mit der Realität. Beispiel. Ein Statistiker teilt Ihnen mit, dass Ihre Daten zu einer Poisson-Verteilung passen. Er wird tatsächlich glauben, dass die Poisson-Distribution eine Art "eigenständige" Realität hat. Die Wahrheit ist, dass die Poisson-Verteilung das Binomial für sehr kleine und sehr große Mengen an Schräglauf annähert. Jetzt, da wir alle Computer haben, gibt es keinen Grund, Approximatoren zu verwenden. Aber leider sterben alte Gewohnheiten schwer.

user10739
quelle
1
Eine interessante und zum Nachdenken anregende These, die in diesem Zusammenhang jedoch letztendlich weniger hilfreich ist. Darüber hinaus scheint seine Wahrheit auf einer eigenwilligen und begrenzten Vorstellung von "realitätsbasiert" zu beruhen. (Um diese Behauptung der Begrenztheit zu rechtfertigen , überlegen Sie sich unter vielen Beispielen, was
erforderlich ist
Ich sehe nicht, wie ein Computer die Notwendigkeit verringert, das einem komplexen Prozess zugrunde liegende Modell zu approximieren. Menschen verwenden keine Poisson-Regression, weil ihre Daten aus einer großen Anzahl von Bernoulli-Versuchen generiert wurden, bei denen die Erfolgswahrscheinlichkeit proportional zur Anzahl der Versuche abnimmt und sie ihrem Computer nur die Mühe ersparen möchten. Sie verwenden es, weil es ein einfaches Modell ist, um zu testen, wie sich Kovariaten auf den Mittelwert eines Zählergebnisses auswirken. Ein kluger Praktiker überprüft die Annahmen seiner Modelle, aber bis Computer psychisch werden, werden wir Modelle verwenden, um die Realität zu approximieren.
Makro
In den Biowissenschaften ist es wichtig, Datensätze gegen die Binomialverteilung zu testen. Auf diese Weise erhalten wir ein Maß für die Gesamtzahl der Fehlerquellen, die der Anzahl der den Prozess beeinflussenden Gene entspricht. Die Poisson-Verteilung verdeckt unter anderem diese Beziehung.
user10739