Warum wird die Nullhypothese oft abgelehnt?

35

Ich hoffe ich mache mit dem Titel Sinn. Oft wird die Nullhypothese mit der Absicht gebildet, sie abzulehnen. Gibt es einen Grund dafür oder ist es nur eine Konvention?

Prometheus
quelle

Antworten:

26

Der Zweck des Testens statistischer Hypothesen besteht hauptsächlich darin, Selbstskepsis zu erzwingen, sodass wir vorsichtig sind, unsere Hypothese zu veröffentlichen, es sei denn, es gibt vernünftige Beweise, die dies belegen. In der üblichen Form der Hypothesentestung liefert die Nullhypothese einen "Teufelsanwalt" , der gegen uns argumentiert und unsere Hypothese nur dann verkündet, wenn wir zeigen können, dass die Beobachtungen bedeuten, dass es unwahrscheinlich ist, dass das Argument des Anwalts stichhaltig ist. Also nehmen wir H0um das zu sein, was wir nicht wahr sein wollen und dann sehen, ob wir es ablehnen können. Wenn wir es ablehnen können, bedeutet dies nicht, dass unsere Hypothese wahrscheinlich richtig ist, sondern dass sie diese grundlegende Hürde überwunden hat und daher eine Überlegung wert ist. Wenn dies nicht möglich ist, bedeutet dies nicht, dass unsere Hypothese falsch ist. Möglicherweise verfügen wir nur nicht über genügend Daten, um ausreichende Beweise zu liefern. Wie @Bahgat zu Recht andeutet (+1), ist dies in hohem Maße die Idee von Poppers Falsificationism-Idee.

Es ist jedoch möglich, einen Test durchzuführen, bei dem ist, was Sie für wahr halten möchten. Damit dies funktioniert, müssen Sie jedoch nachweisen, dass der Test eine ausreichend hohe statistische Aussagekraft aufweist , um sicher zu sein, dass die Null zurückgewiesen wird wenn es tatsächlich falsch ist. Das Berechnen der statistischen Leistung ist schwieriger als das Durchführen des Tests, weshalb diese Form des Testens selten verwendet wird und stattdessen normalerweise die Alternative verwendet wird, bei der H 0 das ist, was nicht wahr sein soll.H0H0

Sie müssen also nicht , um sich Ihrer Hypothese zu widersetzen, aber das Testverfahren wird dadurch viel einfacher.H0

Dikran Beuteltier
quelle
21

Karl Popper sagt: " Wir können eine Hypothese nicht endgültig bestätigen, aber wir können sie endgültig negieren. " Wenn wir also Hypothesentests in der Statistik durchführen, versuchen wir, die entgegengesetzte Hypothese (die Nullhypothese) der Hypothese, an der wir interessiert sind (die alternative Hypothese), zu negieren (zurückzuweisen) und die wir nicht bestätigen können. Da wir die Nullhypothese leicht spezifizieren können, wissen wir aber nicht genau, was die Alternativhypothese ist. Wir können beispielsweise die Hypothese aufstellen, dass zwischen den beiden Populationen ein mittlerer Unterschied besteht, aber wir können nicht angeben, wie groß der Unterschied sein würde.

Siehe auch Nicht an die Nullhypothese glauben?

Bahgat Nassour
quelle
1
Wenn ich Ihre Frage richtig verstehe, sind Standardhypothesentests nicht symmetrisch (die alternative Hypothese erscheint nicht einmal in ihrer Formulierung). Wenn Sie also die Nullhypothese nicht ablehnen können, bedeutet dies nicht, dass sie wahr und die alternative Hypothese falsch ist . Es könnte sein, dass die Nullhypothese falsch ist, es jedoch nicht genügend Daten gibt, um den Beweis zu erbringen, dass sie falsch ist. Die durch den Test auferlegte Selbstskepsis beruht auf der Annahme, dass wahr ist, bis das Gegenteil "bewiesen" ist. H0
Dikran Marsupial
2
Ich bin nicht ganz sicher, ob Poppers Logik der Fälschung zu 100% auf statistische Hypothesentests nach Fisher / Neyman angewendet werden kann. Immerhin sagt Popper: "Wir können eine Hypothese nicht endgültig bestätigen, aber wir können sie endgültig negieren." Wenn ich mich recht erinnere, hat Popper gesagt, dass eine Hypothese klar formuliert werden muss, um sie für Fälschungen zugänglich zu machen. Sie weisen darauf hin, dass wir versuchen, die Nullhypothese abzulehnen. Ich bin mir nicht sicher, ob Popper beabsichtigt hat, die Nullhypothese zu fälschen. Ich denke, er möchte lieber die Alternativhypothese oder diejenige fälschen, die für uns tatsächlich eine Bedeutung hat.
Stefan
2
@DikranMarsupial, ja, ich kenne seine Werke und lese auch "Conjectures and Refutations" und nachdem ich einige Monate darüber nachgedacht habe, was er geschrieben hat, glaube ich nicht, dass das, was er will, mit Hypothesentests erreicht wird, wie wir es tun. Er lehnt auch induktives Denken über deduktives Denken ab. Machen wir nicht die ganze Zeit Schlüsse? Seine Logik bezieht sich hauptsächlich auf die Physik. Sein wichtigstes Beispiel ist beispielsweise, wie Einstein aus seiner Berechnung schlussfolgerte, dass die Schwerkraft die Raumzeit und damit das gebogene Licht verzerrt. Dies wurde dann mehrfach getestet und konnte seitdem nicht mehr verworfen werden.
Stefan,
1
@DikranMarsupial, aber ich bin offen für Fälschungen meiner Aussagen :) Tolles Thema.
Stefan
2
Das Testen von Hypothesen leistet einen Teil seines Schemas: Wir machen unsere Hypothesen explizit testbar und fälschbar (zumindest in der Wahrscheinlichkeit). Tatsächlich gehen Statistiker weiter und erfordern, dass der Test durchgeführt wird, bevor sie fortfahren. Ich vermute, er würde die Bayes'schen Hypothesentests eher gutheißen als das Äquivalent der Frequentisten. Ich denke nicht, dass Falsificationism für sich genommen völlig zufriedenstellend ist, also macht es mir nichts aus, dass Popper nicht voll und ganz zustimmt! ; o)
Dikran Beuteltier
12

Es ist nicht selbstverständlich, dass die Null immer abzulehnen ist. Beim Testen der Modellanpassung lautet der Nullwert in der Regel, dass das Modell gut passt, und das ist etwas Wünschenswertes, das wir nicht gerne ablehnen würden. Es ist jedoch in der Regel richtig, dass die Stichprobenverteilung der Teststatistik unter der Null leichter abzuleiten ist, was in der Regel weitaus restriktiver ist als bei der Alternative. Die Null, bei der die mittlere Differenz zwischen zwei Gruppen Null ist, führt zu at-Prüfung; die Null, dass die beiden Verteilungen gleich sind, führt zum Kolmogorov-Smirnov-Test; die Null, dass das lineare Regressionsmodell keine nichtlinearen Terme über den Ramsey RESET-Test benötigt; Die Null, die ein latent variables Modell der beobachteten Kovarianzmatrix angemessen beschreibt, führt zu einem Parameterraum mit einer geringeren Dimension als eine uneingeschränkte Alternative und zu einem asymptotischen Chi-Quadrat-Test des Abstands zur glatten parametrischen Oberfläche im Raum vonp(p+1)/2vom Modell definierte Kovarianzen. Ich gehe also davon aus, dass, wie @whuber im Kommentar unten ausdrückte, die Null normalerweise eine entscheidende, wenn auch zweckmäßige technische Annahme ist. Die Null ist entweder ein Punkt (möglicherweise multivariat) im parametrischen Raum, sodass die Stichprobenverteilung vollständig angegeben ist. oder ein eingeschränkter parametrischer Raum, wobei die Alternative so formuliert werden kann, dass sie in diesem Raum komplementär ist, und die Teststatistik auf einem Abstand von dem umfangreicheren Satz von Parametern unter der Alternative zu dem Satz mit Einschränkungen unter der Null basiert; oder, in der Welt der nichtparametrischen Rang- / Ordnungsstatistik, kann die Verteilung unter der Null durch die vollständige Aufzählung aller möglichen Stichproben und Ergebnisse abgeleitet werden (häufig jedoch durch etwas Normales in großen Stichproben angenähert).

Taking the null as something different (e.g., that the means of the two groups differ by at most 0.01, with the alternative differ by more than 0.01) requires a more complicated set of derivations, e.g., looking at the worst possible situations, which in the above case would still boil down to the point null against a one-sided alternative. The worst case on the right is H0:μ2=μ1+0.01 vs. H1:μ2>μ1+1, and on the left it is H0:μ2=μ10.01 vs. H1:μ2<μ11.

StasK
quelle
5
+1 Although the references to the philosophy of science are appealing, Fisher and Neyman-Pearson preceded Popper and, I believe, were driven primarily by this crucial technical issue to create the asymmetry between the null and alternate hypothesis.
whuber
That (using a simple model unless it is rejected) may be frequent practice, but I am not sure it is necessarily good practice...
Björn
@whuber, exactly, but for some reason null hypothesis testing is so often put in context with Popper's philosophy. But the concept of the null hypothesis goes back to Fisher and Neyman-Pearson (as you mentioned). The only thing they had in common though is that they both used/proposed hypotheses to acquire knowledge - and with respect to acquiring knowledge and the scientific method, Popper was clearly more influential. So I think that's the reason why the concept of hypothesis testing (including NHT) in general is linked to Popper... I might be wrong though.
Stefan
1
@whuber and StasK: Would you be able to expand a bit more regarding the "crucial technical issue" which I believe refers to StasK 's comment that the test statistic is easier to derive under the null? Maybe I should ask a new question where this could hopefully be addressed.
Stefan
11

This is a fair and good question. @Tim already gave you all you need to answer your question in a formal way, however if you are not familiar with statistical hypothesis testing you could conceptualize the null hypothesis by thinking about it in a more familiar setting.

Suppose you are being accused of having conducted a crime. Until proven guilty, you are innocent (null hypothesis). The attorney provides evidence that you are guilty (alternative hypothesis), your lawyers try to invalidate this evidence during the trial (the experiment) and in the end the judge rules whether you are innocent given the facts provided by the attorney and the lawyers. If the facts against you are overwhelming, i.e. the probability that you are innocent is very low, the judge (or jury) will conclude that your are guilty given the evidence.

Now with this in mind, you could also conceptualize features of statistical hypothesis testing, for instance why independent measurements (or evidence) are important, since after all your deserve a fair trial.

However, this is example has its limitations and eventually you have to formally understand the concept of the null hypothesis.

So to answer your questions:

  1. Yes there is a reason for the null hypothesis (as described above).

  2. No it's not just a convention, the null hypothesis is the core or statistical hypothesis testing or else it wouldn't work they way it is intended to.

Stefan
quelle
7

The law of parsimony (also known as Occam's razor) is a general principle of science. Under that principle, we assume a simple world until it can be shown that the world is more complicated. So, we assume the simpler world of the null hypothesis until it can be falsified. For example:

We assume treatment A and treatment B work the same until we show differently. We assume the weather is the same in San Diego as in Halifax until we show differently, we assume men and women are paid the same until we show differently, etc.

For more, see https://en.wikipedia.org/wiki/Occam%27s_razor

zbicyclist
quelle
3

If I can draw an analogy to logic, a general way to prove something is to assume the opposite and see if that leads to a contradiction. Here the null hypothesis is like the opposite, and rejecting it (i.e. showing that it is very unlikely) is like deriving the contradiction.

You do it that way because it's a way to make an unambiguous statement. Like in my field, it's much easier to say "The statement 'this drug has no benefit' has 5% chance of being right" than it is to say "The statement 'this drug has benefit' has 90% chance of being right". Of course, people want to know how much benefit is being claimed, but first they want to know it isn't zero.

Mike Dunlavey
quelle
2

The null hypothesis is always formed with the intention to reject it that is the basic idea of hypothesis testing. When you are trying to show that something is likely to be true (e.g. a treatment improves or worsens a disease), then the null hypothesis is the default position (e.g. the treatment does not make a difference to the disease). You generate evidence for your desired claim by accumulating data that is (hopefully) so far away from what should have happened under the null hypothesis (in the example patients that are randomized to receive the treatment or a placebo having the same expected outcome) that one concludes that is very unlikely to have arisen under the null hypothesis so that you can reject the null hypothesis. In contrast failure to reject the null hypothesis does not necessarily make it very likely that the null hypothesis is true (just because a clinical trial failed to show a drug works does not mean that the drug really does nothing).

Björn
quelle