Warum sollten parametrische Statistiken nichtparametrischen vorgezogen werden?

60

Kann mir jemand erklären, warum jemand für Hypothesentests oder Regressionsanalysen eine parametrische Methode einer nichtparametrischen statistischen Methode vorziehen sollte?

In meinen Augen ist es wie beim Rafting und bei der Auswahl einer nicht wasserfesten Uhr, weil Sie sie möglicherweise nicht nass bekommen. Warum nicht das Tool verwenden, das bei jeder Gelegenheit funktioniert?

en1
quelle
21
Es soll eine induktive Vorspannung in den Prozess der statistischen Inferenz einbringen. Das ist eine ausgefallene Art zu sagen: Wenn Sie etwas wissen, geben Sie es als Hinweis. Dieser Hinweis kann Formen annehmen, wie zum Beispiel die funktionale Form der Wahrscheinlichkeit oder die vorherige Verteilung auf die Parameter. Wenn Ihr Hinweis gut ist, ist das Ergebnis besser als ohne Hinweis, und wenn es schlecht ist, ist das Ergebnis schlechter.
Cagdas Ozgenc
6
Nicht unbedingt. Grundsätzlich suchen Sie etwas auf einem sehr großen Dessert. Wenn Ihnen jemand sagt, dass das, was Sie suchen, auf ein bestimmtes Gebiet beschränkt ist, verbessern sich Ihre Chancen, es zu finden. Aber wenn sie Sie mit falschen Informationen in die Irre führen, werden Sie sie nicht finden, egal wie oft Sie in diesem Gebiet suchen.
Cagdas Ozgenc
17
Als Holzarbeiter liebe ich die Analogie am Ende. Gut gebaute und langlebige Häuser und Möbel werden mit speziellen Werkzeugen gebaut. Allzweckwerkzeuge eignen sich hervorragend für Hausbesitzer und für Profis, die eine schnelle Arbeit erledigen müssen oder die mit einem groben oder ungeeigneten Werkzeug arbeiten, ohne dass dies einen Qualitätsunterschied darstellt, den sich irgendjemand interessiert. Handwerker erzielen jedoch die besten Ergebnisse, wenn sie das richtige Werkzeug für die jeweilige Aufgabe einsetzen. In der Tat können einige Dinge einfach nicht ohne dieses Werkzeug ausgeführt werden. Zum Beispiel hat noch niemand eine gute Verzahnung mit einer Allzweck-Handsäge hergestellt.
Whuber
3
Egal, ob Sie einen Graben mit einem Spaten oder einem Teelöffel graben, Sie erhalten einen Graben. Es ist nur so, dass du, wenn du den Teelöffel benutzt hast, auch älter bist.
Conjugateprior
5
Verwandte (obwohl vielleicht nicht so offensichtlich): Wenn der Mittelwert so empfindlich ist, warum sollte er überhaupt verwendet werden?
gung - Wiedereinsetzung von Monica

Antworten:

25

Selten, wenn überhaupt, haben ein parametrischer Test und ein nicht parametrischer Test tatsächlich dieselbe Null. Der parametrische Test testet den Mittelwert der Verteilung, vorausgesetzt, die ersten beiden Momente existieren. Der Wilcoxon-Rang-Summen-Test nimmt keine Momente an und testet stattdessen die Verteilungsgleichheit. Sein impliziter Parameter ist eine seltsame Funktion der Verteilungen, die Wahrscheinlichkeit, dass die Beobachtung von einer Probe niedriger ist als die Beobachtung von der anderen. Sie können sich über Vergleiche zwischen den beiden Tests unter der vollständig angegebenen Null identischer Verteilungen unterhalten ... aber Sie müssen erkennen, dass die beiden Tests unterschiedliche Hypothesen testen.t

Die Informationen, die parametrische Tests zusammen mit ihrer Annahme einbringen, tragen zur Verbesserung der Leistungsfähigkeit der Tests bei. Natürlich sind diese Informationen besser richtig, aber es gibt heutzutage nur wenige Bereiche menschlichen Wissens, in denen solche vorläufigen Informationen nicht existieren. Eine interessante Ausnahme, die explizit "Ich möchte nichts annehmen" sagt, ist der Gerichtssaal, in dem nicht-parametrische Methoden nach wie vor weit verbreitet sind - und dies ist für die Anwendung durchaus sinnvoll. Laut Wortspiel gibt es wahrscheinlich einen guten Grund dafür, dass Phillip Good gute Bücher sowohl über nichtparametrische Statistiken als auch über Gerichtsstatistiken verfasst hat .

Es gibt auch Testsituationen, in denen Sie keinen Zugriff auf die für den nichtparametrischen Test erforderlichen Mikrodaten haben. Angenommen, Sie wurden gebeten, zwei Personengruppen zu vergleichen, um festzustellen, ob eine fettleibiger ist als die andere. In einer idealen Welt haben Sie Größen- und Gewichtsmessungen für alle, und Sie könnten einen Permutationstest bilden, der nach der Größe geschichtet ist. In einer weniger als idealen (dh realen) Welt haben Sie möglicherweise nur die mittlere Größe und das mittlere Gewicht in jeder Gruppe (oder einige Bereiche oder Abweichungen dieser Merkmale über den Stichprobenmitteln). Am besten berechnen Sie dann den mittleren BMI für jede Gruppe und vergleichen Sie sie, wenn Sie nur die Mittelwerte haben. oder nehmen Sie eine bivariate Norm für Größe und Gewicht an, wenn Sie Mittelwerte und Abweichungen haben (Sie müssten wahrscheinlich eine Korrelation von einigen externen Daten ziehen, wenn diese nicht mit Ihren Proben geliefert wurden),

StasK
quelle
3
Ich verstehe, dass Sie beim Testen nicht die gleiche Null haben, obwohl ich nicht sicher bin, ob es sinnvoll ist zu sagen, dass eine Null besser ist als eine andere Null. Aber was ist mit der Vorhersage? Völlig andere Geschichte, immer noch ein parametrisches vs. nichtparametrisches Dilemma.
en1
22

Wie andere geschrieben haben: Wenn die Voraussetzungen erfüllt sind, ist Ihr parametrischer Test leistungsfähiger als der nichtparametrische.

In Ihrer Uhrenanalogie wäre die nicht wasserfeste wesentlich genauer, wenn sie nicht nass würde. Zum Beispiel könnte Ihre wasserfeste Uhr in beiden Fällen um eine Stunde außer Betrieb sein, wohingegen die nicht wasserfeste Uhr genau ist ... und Sie müssen nach Ihrer Rafting-Fahrt einen Bus nehmen. In diesem Fall ist es möglicherweise sinnvoll, die nicht wasserfeste Uhr mitzunehmen und sicherzustellen, dass sie nicht nass wird.


Bonuspunkt: Nichtparametrische Methoden sind nicht immer einfach. Ja, ein alternativer Permutationstest zu at test ist einfach. Eine nichtparametrische Alternative zu einem gemischten linearen Modell mit mehreren bidirektionalen Wechselwirkungen und verschachtelten Zufallseffekten ist jedoch wesentlich schwieriger einzurichten als ein einfacher Aufruf nlme(). Ich habe dies unter Verwendung von Permutationstests getan, und meiner Erfahrung nach waren die p-Werte von Parametertests und Permutationstests immer ziemlich nahe beieinander, selbst wenn Residuen aus dem parametrischen Modell nicht normal waren. Parametrische Tests sind oft überraschend widerstandsfähig gegen Abweichungen von ihren Voraussetzungen.

S. Kolassa - Setzen Sie Monica wieder ein
quelle
Es scheint die vorherrschende Ansicht zu sein, dass parametrische Methoden wirksamer sind, wenn ihre Annahmen erfüllt werden. Aber wenn dies der Fall ist, wie kommt es dann, dass wir p-Werte haben, um die Ergebnisse beider Ansätze zu bewerten? Ich meine, wenn ein parametrischer Test eine Nullhypothese mit einer Wahrscheinlichkeit von mindestens 99% ablehnt, wie ist das besser, wenn ein nichtparametrischer Test eine Nullhypothese mit einer Wahrscheinlichkeit von 99% ablehnt? Ist die Wahrscheinlichkeit von 0,99 jeweils unterschiedlich? Das würde keinen Sinn ergeben.
en1
1
Die Nullhypothesen unterscheiden sich zwischen einem parametrischen Test und seinem nichtparametrischen Gegenstück. Konkret enthält die Nullhypothese für einen parametrischen Test eine bestimmte parametrische Annahme über die Verteilung der Teststatistik (die in der Regel auch für die beiden Tests unterschiedlich berechnet wird) - deshalb heißt sie schließlich "parametrisch"! Die beiden p-Werte haben also den gleichen Namen, werden jedoch basierend auf unterschiedlichen Teststatistiken berechnet, die unter verschiedenen Nullhypothesen unterschiedliche Verteilungen aufweisen.
S. Kolassa - Wiedereinsetzung von Monica
... und @StasK drückte alles viel besser aus als ich .
S. Kolassa - Wiedereinsetzung von Monica
3
@StephanKolassa, ich habe tatsächlich angefangen, einen Kommentar zu Ihrer Antwort zu schreiben, und wurde mitgerissen :)
StasK
12

Ich stimme zu, dass in vielen Fällen nichtparametrische Techniken günstig sind, aber es gibt auch Situationen, in denen parametrische Methoden nützlicher sind.

Konzentrieren wir uns auf die Diskussion "Zwei-Stichproben-T-Test gegen Wilcoxons Rang-Summen-Test" (ansonsten müssen wir ein ganzes Buch schreiben).

  1. Mit winzigen Gruppengrößen von 2-3 kann theoretisch nur der t-Test p-Werte unter 5% erreichen. In der Biologie und Chemie sind solche Gruppengrößen keine Seltenheit. Natürlich ist es schwierig, in einer solchen Umgebung einen T-Test durchzuführen. Aber vielleicht ist es besser als nichts. (Dieser Punkt hängt mit dem Problem zusammen, dass der t-Test unter perfekten Umständen leistungsstärker ist als der Wilcoxon-Test.)
  2. Bei großen Gruppengrößen kann dank des zentralen Grenzwertsatzes auch ein t-Test als nicht parametrisch angesehen werden.
  3. Die Ergebnisse des t-Tests stimmen mit dem Student-Konfidenzintervall für die mittlere Differenz überein.
  4. Wenn die Varianzen zwischen den Gruppen stark variieren, versucht die Welch-Version des t-Tests dies zu berücksichtigen, während der Wilcoxon-Rangsummentest schlecht scheitern kann, wenn Mittelwerte verglichen werden sollen (z. B. Fehlerwahrscheinlichkeit der ersten Art, die sich stark vom nominalen Niveau unterscheidet) ).
Michael M
quelle
2
Ich würde mit 1 nicht einverstanden sein. Einfach eine Prozedur zu verwenden, weil es Ihnen erlaubt, eine Entscheidung zu treffen, ist kein guter Grund, besonders wenn Sie keinen Grund haben, davon auszugehen, dass diese Prozedur gültig ist. Wenn Sie nur wenige oder gar keine Daten haben, machen Sie einfach ein Urteil und tun Sie nicht so, als stünde es auf Strenge.
Dsaxton
5
Ich stimme mit Ihnen ein. Dies ist eindeutig ein Grund, warum Ergebnisse häufig nicht reproduzierbar sind, selbst wenn sie in hochrangigen Zeitschriften veröffentlicht werden. Aber welche Möglichkeiten haben Sie als Forscher, wenn das Budget nur winzige Stichprobengrößen zulässt?
Michael M
1
Zu 4 und den Problemen bei der Anwendung von Wilcoxon-Mann-Whitney bei ungleichen Abweichungen zwischen den Gruppen gibt es nichtparametrische Methoden, die Heteroskedastizität zulassen: Ich erinnere mich an Cliffs Test oder den Brunner-Munzel-Test. (Ich glaube nicht, dass wir auf dieser Website viele Informationen über sie haben.)
Silverfish
@Silverfish: Ich verwende häufig Brunners Methoden und ich denke, Sie haben Recht. Aber ich bezweifle, dass sie wirklich nur Mittel vergleichen, wenn sie starke Verteilungsannahmen treffen.
Michael M
1
@MichaelM Ja, das kommt natürlich auf die Frage zurück, ob parametrische und nicht parametrische Methoden unterschiedliche Hypothesen haben.
Silverfish
9

Beim Testen von Hypothesen werden bei nichtparametrischen Tests häufig verschiedene Hypothesen getestet. Dies ist ein Grund, warum man nicht immer nur einen nichtparametrischen Test durch einen parametrischen Test ersetzen kann.

Im Allgemeinen bieten parametrische Prozeduren die Möglichkeit, ansonsten unstrukturierten Problemen Struktur zu verleihen. Dies ist sehr nützlich und kann als eine Art vereinfachende Heuristik angesehen werden, anstatt zu glauben, dass das Modell buchstäblich wahr ist. Nehmen wir zum Beispiel das Problem der Vorhersage einer kontinuierlichen Antwort auf der Grundlage eines Vektors von Prädiktoren Verwendung einer Regressionsfunktion (selbst wenn eine solche Funktion existiert, ist dies eine Art parametrische Einschränkung). Wenn wir absolut nichts über annehmenyxffdann ist überhaupt nicht klar, wie wir bei der Schätzung dieser Funktion vorgehen könnten. Die Menge der möglichen Antworten, nach denen wir suchen müssen, ist einfach zu groß. Wenn wir jedoch den Raum möglicher Antworten auf (zum Beispiel) die Menge der linearen Funktionen , können wir tatsächlich Fortschritte . Wir brauchen nicht zu glauben , dass das Modell genau hält, sind wir nur eine Annäherung zu machen aufgrund der Notwendigkeit an ankommt einig Antwort, aber unvollkommen.f(x)=j=1pβjxj

dsaxton
quelle
Ja, und das fügt eine Modellverzerrung hinzu. Was sagt das über die p-Werte aus, über die Forscher berichten?
Cagdas Ozgenc
@dsaxton Was Sie sagen, ist wahr, wenn es darum geht, verschiedene Hypothesen zu testen, aber die Leute interpretieren sie immer noch auf die gleiche Weise. Dann gibt es auch eine Regression, bei der die Einsichten zwischen nichtparametrischen und parametrischen Analysen ziemlich gleich sind.
de1
@ cagdas-ozgenc Zeigt an, dass p-Werte vom Modell abhängig sind. Aber es ist nicht klar, wie die Dinge anders sein könnten ...
Conjugateprior
3
+1 für die Feststellung, dass wir ohne einige Annahmen über die Regressionsfunktion absolut keine Chance haben, irgendetwas Wertvolles in einer Regression zu schätzen.
Conjugateprior
9

Semiparametrische Modelle haben viele Vorteile. Sie bieten Tests wie den Wilcoxon-Test als Sonderfall an, ermöglichen jedoch die Schätzung von Wirkungsgraden, Quantilen, Mittelwerten und Überschreitungswahrscheinlichkeiten. Sie erstrecken sich auf longitudinale und zensierte Daten. Sie sind robust im Y-Raum und transformationsinvariant mit Ausnahme von Schätzmitteln. Ein detailliertes Beispiel / Fallbeispiel finden Sie unter http://biostat.mc.vanderbilt.edu/rms .

Im Gegensatz zu vollständig parametrischen Methoden ( Test, gewöhnliche multiple Regression, Mischeffektmodelle, parametrische Überlebensmodelle usw.) gehen semiparametrische Methoden für ordinales oder kontinuierliches nicht von der Verteilung von für ein gegebenes , auch nicht von der Verteilung von Verteilung ist unimodal oder glatt. Die Verteilung kann sogar starke Spitzen innerhalb oder an den Grenzen aufweisen. Semiparametrische Modelle setzen nur eine Verbindung (z. B. Exponentiation im Fall eines Cox-Modells) zwischen Verteilungen für zwei verschiedene Kovariateneinstellungen undtYYXX1X2. Beispiele sind das Proportional-Odds-Modell (Sonderfall: Wilcoxon und Kruskal-Wallis) und das Proportional-Hazards-Modell (Sonderfall: Log-Rank- und Stratified-Log-Rank-Test).

In der Tat haben semiparametrische Modelle viele Abschnitte. Diese Abschnitte codieren die Verteilung von nichtparametrisch. Dies verursacht jedoch kein Problem mit einer Überparametrisierung.Y

Frank Harrell
quelle
1
Ich habe ein bisschen mit diesem gekämpft. Betrachten Sie den t-Test als semi-parametrisch oder nicht-parametrisch? Einerseits bin ich immer davon ausgegangen, dass der Kern der Semiparametrik folgender ist: Nehmen Sie ein "funktionierendes" Wahrscheinlichkeitsmodell für die Daten, schätzen Sie die Parameter in dieser Verteilung unabhängig davon, ob die Verteilung korrekt ist, und verbessern Sie die Fehlerschätzung auf Ungewissheit berücksichtigen. (Sandwich-basierte Fehler für Lösungen von Gaußschen Score-Gleichungen wären also ein semi-parametrischer T-Test.) Bei der Semiparametrie geht es jedoch fast immer darum, etwas aufzuteilen / aufzubereiten, wie bei Cox-Modellen.
AdamO
Ich werde meiner Antwort eine weitere Beschreibung hinzufügen, um damit umzugehen.
Frank Harrell
6

Unter den zahlreichen Antworten möchte ich auch auf die Bayes'schen Statistiken hinweisen. Einige Probleme können nicht allein durch Wahrscheinlichkeiten beantwortet werden. Ein Frequentist verwendet kontrafaktische Argumentation, bei der sich die "Wahrscheinlichkeit" auf alternative Universen bezieht und ein alternatives Universumsgerüst keinen Sinn ergibt, sofern daraus auf den Zustand eines Individuums geschlossen werden kann, wie z Arten, die einer massiven Umweltverschiebung ausgesetzt waren, führten zu ihrem Aussterben. Im Bayes'schen Kontext ist Wahrscheinlichkeit "Glaube", nicht Frequenz, die auf das angewendet werden kann, was bereits ausgefällt ist.

Die Mehrheit der Bayes'schen Methoden erfordert nun die vollständige Spezifizierung von Wahrscheinlichkeitsmodellen für den Prior und das Ergebnis. Die meisten dieser Wahrscheinlichkeitsmodelle sind parametrisch. Übereinstimmend mit den Aussagen anderer müssen diese nicht genau richtig sein, um aussagekräftige Zusammenfassungen der Daten zu erstellen. "Alle Modelle sind falsch, einige Modelle sind nützlich."

Es gibt natürlich nichtparametrische Bayes'sche Methoden. Diese weisen viele statistische Falten auf und erfordern im Allgemeinen, dass nahezu umfassende Bevölkerungsdaten sinnvoll verwendet werden.

AdamO
quelle
6

Der einzige Grund, warum ich antworte, ist, dass niemand auf den Hauptgrund aufmerksam gemacht hat, warum wir parametrische Tests verwenden (zumindest bei der Analyse von Daten der Teilchenphysik). Weil wir die Parametrisierung der Daten kennen. Duh! Das ist so ein großer Vorteil. Sie reduzieren Ihre Hunderte, Tausende oder Millionen von Datenpunkten auf die wenigen Parameter, die Ihnen wichtig sind, und beschreiben Ihre Verteilung. Diese zeigen Ihnen die zugrunde liegende Physik (oder was auch immer die Wissenschaft Ihnen Ihre Daten gibt).

Wenn Sie keine Ahnung von der zugrunde liegenden Wahrscheinlichkeitsdichte haben, haben Sie natürlich keine andere Wahl: Verwenden Sie nicht parametrische Tests. Nicht-parametrische Tests haben den Vorteil, dass sie keine vorgefassten Verzerrungen aufweisen, können jedoch schwieriger zu implementieren sein - manchmal viel schwieriger.

Zeitunterschied
quelle
5

Nichtparametrische Statistiken haben ihre eigenen Probleme! Einer von ihnen ist die Betonung auf Hypothesentests, oft brauchen wir Schätz- und Konfidenzintervalle, und es ist kompliziert, sie in komplizierten Modellen mit nichtparametrischen Merkmalen zu erhalten. Unter http://andrewgelman.com/2015/07/13/dont-do-the-wilcoxon/ gibt es einen sehr guten Blogeintrag mit Diskussion. Die Diskussion führt zu diesem anderen Beitrag, http: // notstatschat. tumblr.com/post/63237480043/rock-paper-scissors-wilcoxon-test , der für einen ganz anderen Blickwinkel auf Wilcoxon empfohlen wird . Die Kurzversion lautet: Das Wilcoxon (und andere Rangprüfungen) können zu Nichttransitivität führen.

kjetil b halvorsen
quelle
4
Ich bin mir nicht sicher, ob Transitivität das A und O ist. Sie können den Wilcoxon-Test auch invertieren, um ein sehr robustes und nützliches Konfidenzintervall für die Standortschätzung zu erhalten.
Frank Harrell
2
Nicht-Transitivität hat seine Gründe in der kausalen Modellierung, aber für einfache Assoziationstests mit zwei Stichproben halte ich es nicht für ein wirkliches Problem. Außerdem sehe ich keine Unterschiede in den Intervallen von Hypothesentest, Schätzung und Konfidenz zwischen nichtparametrischen und parametrischen Methoden. Manchmal verwenden Sie bei einer robusten Schätzung ein funktionierendes Wahrscheinlichkeitsmodell, sodass die entsprechende parametrische Schätzung eine aussagekräftige Zusammenfassung der Daten liefert (auch wenn es an sich nicht das richtige Wahrscheinlichkeitsmodell ist). Vielleicht können Sie diese Antwort erweitern?
AdamO
2
In der Regel werden für den Wilcoxon-Test einige zusätzliche Annahmen getroffen, z. B. die stochastische Dominanz einer Gruppe gegenüber der anderen.
Scortchi
3

Ich würde sagen, dass nicht parametrische Statistiken allgemeiner anwendbar sind, da sie weniger Annahmen treffen als parametrische Statistiken.

Wenn man jedoch eine parametrische Statistik verwendet und die zugrunde liegenden Annahmen erfüllt sind, ist die parametrische Statistik leistungsfähiger als die nicht parametrische.


quelle
2

Parametrische Statistiken sind oft Möglichkeiten, externes Wissen einzubeziehen. Sie wissen beispielsweise, dass die Fehlerverteilung normal ist, und dieses Wissen stammt entweder aus früheren Erfahrungen oder aus einer anderen Überlegung und nicht aus dem Datensatz. In diesem Fall beziehen Sie unter der Annahme einer Normalverteilung dieses externe Wissen in Ihre Parameterschätzungen ein, wodurch Ihre Schätzungen verbessert werden müssen.

Nach Ihrer Uhrenanalogie. Heutzutage sind fast alle Uhren wasserdicht, mit Ausnahme von Schmuckstücken oder ungewöhnlichen Materialien wie Holz. Der Grund, sie zu tragen, ist genau das: Sie sind etwas Besonderes. Wenn Sie Wasserdicht gemeint haben, dann sind viele Modeuhren nicht wasserdicht. Der Grund, sie zu tragen, ist wieder ihre Funktion: Sie würden keine Taucheruhr mit Anzug und Krawatte tragen. Außerdem haben heutzutage viele Uhren einen offenen Rücken, sodass Sie die Bewegung durch den Kristall beobachten können. Natürlich sind diese Uhren in der Regel nicht wasserdicht.

Aksakal
quelle
1
Ich mag diese Metapher !. Ich erinnere mich, dass uns ein Professor gesagt hat, wir sollten verschiedene statistische Methoden für dieselbe Sache ausprobieren, um zu sehen, ob wir dieselben Ergebnisse erzielen können.
Deep North
2

Dies ist kein Szenario zum Testen von Hypothesen, aber es kann ein gutes Beispiel für die Beantwortung Ihrer Frage sein: Betrachten wir die Clusteranalyse. Es gibt viele "nicht-parametrische" Clustering-Methoden wie hierarchisches Clustering, K-Means usw., aber das Problem ist immer, wie man beurteilt, ob Ihre Clustering-Lösung "besser" ist als andere mögliche Lösungen (und oft gibt es mehrere mögliche Lösungen). . Jeder Algorithmus gibt Ihnen das Beste, was er kann, aber woher wissen Sie, ob es nichts Besseres gibt? Nun gibt es auch parametrische Ansätze für das Clustering, das sogenannte modellbasierte Clustering, wie Finite Mixture Models. Mit FMM erstellen Sie ein statistisches Modell, das die Verteilung Ihrer Daten beschreibt und in Daten einfügt. Wenn Sie Ihr Modell haben, können Sie beurteilen, wie wahrscheinlich es ist, dass Ihre Daten für dieses Modell vorliegen, Sie können Likelihood Ratio-Tests verwenden, AICs vergleichen und verschiedene andere Methoden zum Überprüfen der Modellanpassung und des Modellvergleichs verwenden. Nichtparametrische Clustering-Algorithmen gruppieren Daten nur anhand einiger Ähnlichkeitskriterien. Mit FMM können Sie Ihre Daten beschreiben und zu verstehen versuchen, überprüfen, wie gut sie passen, Vorhersagen treffen ... In der Praxis sind nichtparametrische Ansätze einfach und funktionieren out-of-the-box und sind ziemlich gut, während FMM problematisch sein kann, aber dennoch liefern modellbasierte Ansätze häufig eine reichhaltigere Ausgabe.

Tim
quelle
2

Vorhersagen und Prognosen für neue Daten sind für nicht parametrische Modelle oft sehr schwierig oder unmöglich. Zum Beispiel kann ich die Anzahl der Garantieansprüche für die nächsten 10 Jahre mit einem Weibull- oder Lognormal-Überlebensmodell prognostizieren. Dies ist jedoch mit dem Cox-Modell oder Kaplan-Meier nicht möglich.

Edit: Lassen Sie mich etwas klarer sein. Wenn ein Unternehmen ein defektes Produkt hat, ist es häufig daran interessiert, die zukünftige Garantieanspruchsrate und den CDF auf der Grundlage der aktuellen Garantieansprüche und Verkaufsdaten zu prognostizieren. Dies kann ihnen bei der Entscheidung helfen, ob ein Rückruf erforderlich ist oder nicht. Ich weiß nicht, wie Sie dies mit einem nicht parametrischen Modell tun.

Tal
quelle
7
Ich bin anderer Ansicht. Sie können ein Cox-Modell verwenden, um Quantile, den Mittelwert (wenn der höchste Y-Wert unzensiert ist) und alle möglichen Wahrscheinlichkeiten zu schätzen. Nicht in der Lage zu sein, über den Bereich der Daten hinaus zu prognostizieren, ist zwar ein Problem (wie Sie erwähnt haben), aber Sie könnten gefährlich hochgerechnet werden.
Frank Harrell
@FrankHarrell Ja guter Punkt, muss beim Hochrechnen immer vorsichtig sein.
Glen
Was ist mit Random Forest, Deep Learning oder SVM? Sie schlagen die meisten, wenn nicht alle parametrischen Vorhersagemethoden.
en1
2
Es sei denn, Sie versuchen, einen Entscheidungsbaum zu
erstellen,
1

Ich glaube ehrlich, dass es keine richtige Antwort auf diese Frage gibt. Nach den gegebenen Antworten zu urteilen, ist der Konsens, dass parametrische Tests leistungsfähiger sind als nichtparametrische Äquivalente. Ich werde diese Ansicht nicht bestreiten, aber ich sehe sie eher als eine hypothetische als als eine sachliche Ansicht, da sie nicht ausdrücklich in den Schulen gelehrt wird und kein Gutachter Ihnen jemals sagen wird, "Ihre Arbeit wurde abgelehnt, weil Sie nicht-parametrische Tests verwendet haben". Diese Frage handelt von etwas, das die Welt der Statistik nicht eindeutig beantworten kann, aber für selbstverständlich gehalten hat.

Meine persönliche Meinung ist, dass die Bevorzugung von parametrisch oder nichtparametrisch mehr mit Tradition als mit irgendetwas anderem zu tun hat (aus Mangel an einem besseren Begriff). Parametrische Test- und Vorhersagetechniken waren zuerst vorhanden und haben eine lange Geschichte, daher ist es nicht einfach, sie vollständig zu ignorieren. Insbesondere die Vorhersage bietet einige beeindruckende nichtparametrische Lösungen, die heutzutage als Werkzeug der ersten Wahl weit verbreitet sind. Ich denke, dies ist einer der Gründe, warum maschinelles Lernen wie neuronale Netze und Entscheidungsbäume, die von Natur aus nichtparametrisch sind, in den letzten Jahren eine weit verbreitete Popularität erlangt haben.

Digio
quelle
3
"Der Konsens ist, dass parametrische Tests leistungsfähiger sind als nichtparametrische": Nichtparametrische Tests haben im Allgemeinen eine geringere Leistung, wenn die Annahmen des parametrischen Tests korrekt sind , im Wesentlichen, weil diese Annahmen bedeuten, dass parametrische Tests einen Vorsprung haben (zusätzliche Informationen über die wahre Verteilung). . Vor allem bei großen Stichproben kann der Leistungsverlust jedoch gering sein : Wilcoxon ist bei Normalität so effizient wie der t-Test bei großen Stichproben. Wenn die Annahmen nicht erfüllt sind, können nicht parametrische Tests weitaus leistungsfähiger sein! 3/π95%
Silberfischchen
"Konsens" bedeutet "allgemeine Übereinstimmung", nicht meine persönliche Meinung.
Digio
2
Ich bezog mich nicht darauf, ob die Aussage Ihre persönliche Meinung oder die kollektive Weisheit anderer repräsentiert, sondern darauf, dass die Aussage nur dann richtig ist, wenn die notwendigen Bedingungen für einen parametrischen Test zutreffen . Wenn die Bedingungen nicht zutreffen, kann es sein, dass "parametrische Tests leistungsfähiger als nichtparametrische sind", und tatsächlich kann das Gegenteil der Fall sein (manchmal mit sehr großem Abstand).
Silverfish
Touché! ..... +1
Digio
0

Es ist eine Frage der statistischen Macht. Nichtparametrische Tests haben im Allgemeinen eine geringere statistische Aussagekraft als ihre parametrischen Gegenstücke.

Verstecktes Markov-Modell
quelle
6
Parametrische Tests haben mehr Leistung, wenn ihre Annahmen erfüllt sind. Wenn ihre Annahmen nicht erfüllt sind, können nicht parametrische Tests leistungsfähiger sein.
gung - Wiedereinsetzung von Monica
3
Diese Antwort ist sehr kurz und die Macht wurde in früheren Antworten erörtert. Würdest du darüber nachdenken, es ein wenig zu erweitern?
Scortchi
4
Der Leistungsgewinn aus parametrischen Tests ist im Vergleich zu dem Leistungsverlust, den sie erleiden, wenn ihre Annahmen nicht erfüllt werden, winzig.
Frank Harrell
Frank, es kommt auf den Test an, manche Tests sind robuster gegen Verstöße gegen ihre Annahmen.
Hidden Markov Model
0

Viele gute Antworten bereits, aber es gibt einige Gründe, die ich nicht erwähnt habe:

  1. Vertrautheit. Abhängig von Ihrer Zielgruppe ist das parametrische Ergebnis möglicherweise viel vertrauter als ein ungefähr gleichwertiges nicht parametrisches. Wenn die beiden ähnliche Schlussfolgerungen ziehen, ist Vertrautheit gut.

  2. Einfachheit. Manchmal ist der parametrische Test einfacher durchzuführen und zu protokollieren. Einige nichtparametrische Methoden sind sehr computerintensiv. Natürlich sind Computer viel schneller geworden und Algorithmen haben sich ebenfalls verbessert, aber ... Daten sind "größer" geworden.

    1. Manchmal ist das, was normalerweise ein Nachteil des parametrischen Tests ist, tatsächlich ein Vorteil, obwohl dies für bestimmte Testpaare spezifisch ist. Ich bin zum Beispiel im Allgemeinen ein Fan der Quantil-Regression, da hier weniger Annahmen getroffen werden als bei den üblichen Methoden. Aber manchmal muss man den Mittelwert wirklich schätzen, anstatt den Median.
Peter Flom - Wiedereinsetzung von Monica
quelle