Ich habe die Klassifikatorgenauigkeit in Prozent und die Anzahl der Eingangsabtastwerte ausgegeben. Gibt es einen Test, der anhand dieser Informationen feststellen kann, wie statistisch signifikant das Ergebnis ist?
Vielen Dank
Ich habe die Klassifikatorgenauigkeit in Prozent und die Anzahl der Eingangsabtastwerte ausgegeben. Gibt es einen Test, der anhand dieser Informationen feststellen kann, wie statistisch signifikant das Ergebnis ist?
Vielen Dank
Antworten:
Sie möchten die Verteilung der Genauigkeit des Vermutens definieren. Vielleicht ist dies wie wobei Binomial ( , ) für einige bekannte (sagen wir 50%).X./ n n p pX.∼ n p p
Berechnen Sie dann die Wahrscheinlichkeit, die Ergebnisse zu beobachten, die Sie erzielt haben, wenn dieses Nullmodell wahr wäre. In R können Sie
binom.test
es direkt mit verwenden oder berechnenpbinom
.Normalerweise möchten Sie die Genauigkeit nicht mit "Raten" vergleichen, sondern mit einer alternativen Methode. In diesem Fall können Sie den McNemar-Test verwenden . in R ,
mcnemar.test
.quelle
Ich sehe nicht, wo das Testen gegen völlige Zufälligkeit so hilfreich ist. Ein Klassifikator, der nur reine Zufallsraten schlagen kann, ist nicht sehr nützlich. Ein größeres Problem ist die Verwendung von Proportionen, die korrekt als Genauigkeitsbewertung klassifiziert wurden. Dies ist eine diskontinuierliche falsche Bewertungsregel, die leicht manipuliert werden kann, da sie willkürlich und unempfindlich ist. Eine (von vielen) Möglichkeiten, die Mängel zu erkennen, besteht darin, den korrekt klassifizierten Anteil zu berechnen, wenn Sie ein Modell mit nur einem Achsenabschnitt haben. Es wird hoch sein, wenn die Prävalenz nicht nahe bei 0,5 liegt.
Sobald Sie eine geeignetere Regel ausgewählt haben, ist es hilfreich, ein Konfidenzintervall für den Index zu berechnen. Die statistische Signifikanz ist von geringem Wert.
quelle
Sicher können Sie ein Konfidenzintervall berechnen . Wenn Ihre Genauigkeit ist, die für einen Testsatz von Elementen geschätzt wird , gilt Also Sie können also sagen: Zum Beispiel können Sie das Wilson-Intervall berechnen . N a c c - pacc N P(acc-p
Ich denke, Sie können berechnen, wie sehr sich Ihre Leistung von einer zufälligen unterscheidet, die den Gewinn berechnet . Die Genauigkeit eines Zufallsklassifizierers ist: wobei die empirische Häufigkeit der Klasse , die auf dem geschätzt wird, und die Zahl ist von verschiedenen Klassen. Im Durchschnitt klassifiziert ein zufälliger Klassifizierer, der das zufällige Erraten der Klasse anhand der Wahrscheinlichkeit des klassifiziert, Beispiele für Klasse korrekt. Wobei die Anzahl der Datensätze der Klasse
Der Gewinn ist:
Ich denke tatsächlich, dass ein statistischer Test skizziert werden kann. Der Zähler kann als normale Zufallsvariable , aber Sie sollten herausfinden, welche Art von Zufallsvariable der Nenner könnte sein.acc rN(acc,p(1−p)/N) accr
quelle
Sie könnten an folgenden Artikeln interessiert sein:
Ich denke, sie decken ab, worüber Dimitrios Athanasakis spricht.
Ich habe eine Option von Yeh so implementiert, wie ich es verstehe:
http://www.clips.uantwerpen.be/~vincent/software#art
quelle
Ich denke, eine Sache, die Sie ausprobieren könnten, wäre ein Permutationstest. Einfach ausgedrückt, permutieren Sie die gewünschten Eingabe-Ausgabe-Paare, die Sie Ihrem Klassifizierer mehrmals zuführen, zufällig. Wenn es nicht gelingt, über 100 verschiedene Permutationen auf derselben Ebene etwas zu reproduzieren, ist es im 99% -Intervall von Bedeutung und so weiter. Dies ist im Grunde der gleiche Prozess, der verwendet wird, um p-Werte zu erhalten (die der Wahrscheinlichkeit entsprechen, eine lineare Korrelation derselben Mangnitude nach zufälliger Permutation der Daten zu erhalten) und so weiter.
quelle