Beim Lesen der Kaggle-Essay-Eval-Methode bin ich auf eine varianzstabilisierende Transformation gestoßen . Sie verwenden eine Varianzstabilisierungstransformation, um Kappa-Werte zu transformieren, bevor sie ihren Mittelwert bilden und sie dann zurücktransformieren. Obwohl ich das Wiki über Varianzstabilisierende Transformationen gelesen habe, kann ich nicht verstehen, warum wir Varianzen tatsächlich stabilisieren. Welchen Nutzen ziehen wir daraus?
variance
mathematical-statistics
Pushpendre
quelle
quelle
Antworten:
Hier ist eine Antwort: In der Regel ist die effizienteste Methode zum Durchführen statistischer Inferenzen, wenn Ihre Daten erfasst werden. Wenn dies nicht der Fall ist, erhalten Sie unterschiedliche Informationsmengen aus unterschiedlichen Beobachtungen, was weniger effizient ist. Eine andere Sichtweise ist, dass Sie im Allgemeinen die Genauigkeit Ihrer Schätzungen zumindest asymptotisch verbessern, wenn Sie Ihrer Inferenz zusätzliche Informationen hinzufügen können (dh die funktionale Form der Varianz über die Varianzstabilisierungstransformation). Bei sehr kleinen Stichproben kann die Modellierung der Varianz die Tendenz zu kleinen Stichproben erhöhen. Dies ist eine Art ökonometrisches GMM-Argument: Wenn Sie zusätzliche Momente hinzufügen, kann Ihre asymptotische Varianz nicht steigen. und Ihre Vorspannung für endliche Stichproben nimmt mit den überbestimmten Freiheitsgraden zu.
Eine andere Antwort wurde von Kardinal gegeben: Wenn Sie eine unbekannte Varianz in Ihrem asymptotischen Varianzausdruck haben, ist die Konvergenz auf die asymptotische Verteilung langsamer und Sie müssten diese Varianz irgendwie abschätzen. Das Vorab-Pivoting Ihrer Daten oder Statistiken trägt normalerweise zur Verbesserung der Genauigkeit asymptotischer Approximationen bei.
quelle