Ich versuche, die Null gegen die lokale Alternative E [ X ] > 0 für eine Zufallsvariable X zu testen, die einem leichten bis mittleren Versatz und einer Kurtosis der Zufallsvariablen unterliegt. Gemäß den Vorschlägen von Wilcox in "Einführung in die robuste Schätzung und das Testen von Hypothesen" habe ich Tests untersucht, die auf dem getrimmten Mittelwert, dem Median sowie dem M-Schätzer der Position basieren (Wilcox '"One-Step" -Verfahren). Diese robusten Tests übertreffen den Standard-T-Test in Bezug auf die Leistung, wenn sie mit einer Verteilung getestet werden, die nicht verzerrt, aber leptokurtotisch ist.
Wenn jedoch mit einer Verteilung getestet wird, die schief ist, sind diese einseitigen Tests unter der Nullhypothese entweder viel zu liberal oder viel zu konservativ, je nachdem, ob die Verteilung links- oder rechtsversetzt ist. Beispiel: Bei 1000 Beobachtungen wird der auf dem Median basierende Test in etwa 40% der Fälle bei einem nominalen Wert von 5% zurückgewiesen. Der Grund dafür liegt auf der Hand: Bei verzerrten Verteilungen sind der Median und der Mittelwert ziemlich unterschiedlich. In meiner Anwendung muss ich jedoch unbedingt den Mittelwert testen, nicht den Median, nicht den getrimmten Mittelwert.
Gibt es eine robustere Version des T-Tests, die tatsächlich den Mittelwert ermittelt, aber unempfindlich gegen Schräglauf und Kurtosis ist?
Im Idealfall würde das Verfahren auch im Fall von No-Skew-Hochkurtose gut funktionieren. Der Ein-Schritt-Test ist fast ausreichend, wobei der Biegeparameter relativ hoch eingestellt ist. Er ist jedoch weniger leistungsfähig als der getrimmte Durchschnittstest, wenn kein Versatz vorliegt, und es treten einige Probleme auf, die nominelle Ausschussmenge unter dem Versatz beizubehalten .
Hintergrund: Der Grund, warum mir der Mittelwert und nicht der Median wirklich am Herzen liegt, ist, dass der Test in einer Finanzanwendung verwendet wird. Wenn Sie beispielsweise testen möchten, ob ein Portfolio positive erwartete Protokollrenditen aufweist, ist der Mittelwert tatsächlich angemessen, da Sie bei einer Investition in das Portfolio alle Renditen (dh das Mittel multipliziert mit der Anzahl der Stichproben) anstelle von erzielen Duplikate des Medians. Das heißt, mir ist die Summe von n Zügen aus dem RV X sehr wichtig .
quelle
Antworten:
Warum betrachten Sie nichtparametrische Tests? Werden die Annahmen des T-Tests verletzt? Nämlich ordinale oder nicht normale Daten und inkonstante Abweichungen? Wenn Ihre Stichprobe groß genug ist, können Sie natürlich den parametrischen t-Test mit seiner größeren Leistung trotz des Mangels an Normalität in der Stichprobe rechtfertigen. Ebenso gibt es bei ungleichen Varianzen Korrekturen am Parametertest, die genaue p-Werte ergeben (die Welch-Korrektur).
Andernfalls ist der Vergleich Ihrer Ergebnisse mit dem T-Test keine gute Methode, da die T-Testergebnisse verzerrt sind, wenn die Annahmen nicht erfüllt werden. Das Mann-Whitney U ist eine geeignete nicht-parametrische Alternative, wenn Sie das wirklich brauchen. Sie verlieren nur dann an Leistung, wenn Sie den nicht parametrischen Test verwenden, wenn Sie den t-Test zu Recht verwenden können (da die Annahmen erfüllt sind).
Und nur für ein paar Hintergrundinformationen, gehen Sie hier ...
http://www.jerrydallal.com/LHSP/STUDENT.HTM
quelle
Ich stimme zu, dass Sie keinen nichtparametrischen Test verwenden möchten, der eine andere Hypothese testet, wenn Sie tatsächlich testen möchten, ob die Gruppenmittelwerte unterschiedlich sind (im Gegensatz zum Testen von Unterschieden zwischen Gruppenmedianen oder getrimmten Mittelwerten usw.).
Im Allgemeinen sind p-Werte aus einem t-Test bei moderaten Abweichungen von der Annahme der Normalität von Residuen eher genau. Schauen Sie sich dieses Applet an, um eine Vorstellung von dieser Robustheit zu erhalten: http://onlinestatbook.com/stat_sim/robustness/index.html
Wenn Sie immer noch über die Verletzung der Normalitätsannahme besorgt sind, möchten Sie möglicherweise einen Bootstrap durchführen . Beispiel: http://biostat.mc.vanderbilt.edu/wiki/pub/Main/JenniferThompson/ms_mtg_18oct07.pdf
Sie können auch die verzerrte abhängige Variable transformieren , um Probleme mit Abweichungen von der Normalität zu beheben.
quelle
trimpb
undtrimcibt
, aber sie sind etwas zu langsam, um meine Leistungstests durchzuführen, zumindest für meinen Geschmack. Betreff: 3, ich hatte über diese Methode nachgedacht, aber ich interessiere mich für den Mittelwert der nicht transformierten Daten (dh ich vergleiche nicht 2 RVs mit einem t-Test, in welchem Fall eine monotone Transformation in Ordnung wäre ein rangbasierter Vergleich, wie von @JoFrhwld notiert.)Johnson (1978) gibt eine Modifikation für diet -Statistik- und Konfidenzintervalle, die ein guter Ausgangspunkt für mein Problem sind. Die Korrektur basiert auf einer Cornish-Fisher-Erweiterung und verwendet einen Stichprobenversatz.
Das 'Neueste und Größte' geht auf Ogaswara zurück , mit Hinweisen auf Hall und andere.
quelle
Ich habe nicht genug Reputation für einen Kommentar, also als Antwort: Schauen Sie sich diese Berechnung an. Ich denke, das ist eine hervorragende Antwort. In Kürze:
quelle