Gesucht hoch und niedrig und nicht in der Lage, herauszufinden, was AUC, wie in Bezug auf Vorhersage, bedeutet oder
AUC steht für die Fläche unter der Kurve und bezieht sich normalerweise auf die Fläche unter der ROC-Kurve (Receiver Operator Characteristic).
Gesucht hoch und niedrig und nicht in der Lage, herauszufinden, was AUC, wie in Bezug auf Vorhersage, bedeutet oder
Ich bin daran interessiert, die Fläche unter der Kurve (AUC) oder die c-Statistik von Hand für ein binäres logistisches Regressionsmodell zu berechnen. Zum Beispiel habe ich im Validierungsdatensatz den wahren Wert für die abhängige Variable, Aufbewahrung (1 = beibehalten; 0 = nicht beibehalten),...
Akaike Information Criterion (AIC) und die c-Statistik (Fläche unter der ROC-Kurve) sind zwei Messgrößen für die logistische Regression. Es fällt mir schwer zu erklären, was passiert, wenn die Ergebnisse der beiden Maßnahmen nicht konsistent sind. Ich denke, sie messen etwas unterschiedliche...
Ich habe zwei Klassifikatoren A: naives Bayes'sches Netzwerk B: Baum (einfach verbunden) Bayesianisches Netzwerk In Bezug auf Genauigkeit und andere Maßnahmen schneidet A vergleichsweise schlechter ab als B. Wenn ich jedoch die R-Pakete ROCR und AUC für die ROC-Analyse verwende, stellt sich...
Ist Average Precision (AP) der Bereich unter Precision-Recall Curve (AUC der PR-Kurve)? BEARBEITEN: Hier ist ein Kommentar zum Unterschied zwischen PR AUC und AP. Die AUC wird durch trapezförmige Interpolation der Präzision erhalten. Eine alternative und in der Regel fast äquivalente Metrik ist die...
In der Diskussion: Wie man eine ROC-Kurve für die binäre Klassifikation erzeugt , war meiner Meinung nach die Verwirrung, dass ein "binärer Klassifikator" (ein Klassifikator, der zwei Klassen trennt) für Yang ein so genannter "diskreter Klassifikator" war (der erzeugt) diskrete Ausgänge (0/1 wie...
Das Bild unten zeigt eine kontinuierliche Kurve von falsch-positiven Raten gegenüber wahr-positiven Raten: Ich verstehe jedoch nicht sofort, wie diese Sätze berechnet werden. Wenn eine Methode auf einen Datensatz angewendet wird, weist sie eine bestimmte FP-Rate und eine bestimmte FN-Rate auf....
Präambel Dies ist ein langer Beitrag. Wenn Sie dies noch einmal lesen, beachten Sie bitte, dass ich den Fragenteil überarbeitet habe, obwohl das Hintergrundmaterial das gleiche bleibt. Außerdem glaube ich, dass ich eine Lösung für das Problem gefunden habe. Diese Lösung wird unten im Beitrag...
Ich benutze einen Klassifikator, der Wahrscheinlichkeiten zurückgibt. Zur Berechnung der AUC verwende ich das pROC R-Paket. Die Ausgabewahrscheinlichkeiten des Klassifikators
Ich habe einige Zweifel, welches Leistungsmaß verwendet werden soll, Bereich unter der ROC-Kurve (TPR als Funktion von FPR) oder Bereich unter der Genauigkeits-Rückruf-Kurve (Genauigkeit als Funktion von Rückruf). Meine Daten sind unausgewogen, dh die Anzahl der negativen Instanzen ist viel größer...
Können AUC-ROC-Werte zwischen 0 und 0,5 liegen? Gibt das Modell jemals Werte zwischen 0 und 0,5
Ich habe eine ROC-Kurve für ein Diagnosesystem erstellt. Die Fläche unter der Kurve wurde dann nicht parametrisch auf AUC = 0,89 geschätzt. Als ich versuchte, die Genauigkeit bei der optimalen Schwellenwerteinstellung (dem Punkt, der dem Punkt (0, 1) am nächsten liegt) zu berechnen, erhielt ich...
Ich experimentiere mit dem Algorithmus der Gradientenverstärkungsmaschine über das caretPaket in R. Unter Verwendung eines kleinen Datensatzes für Hochschulzulassungen habe ich den folgenden Code ausgeführt: library(caret) ### Load admissions dataset. ### mydata <-
Ich versuche, die ' Dichte' -Funktion in R zu verwenden, um Kernel-Dichteschätzungen durchzuführen. Ich habe einige Schwierigkeiten, die Ergebnisse zu interpretieren und verschiedene Datensätze zu vergleichen, da die Fläche unter der Kurve nicht unbedingt 1 zu sein scheint. Für jede...
F1-Score ist das harmonische Mittel für Präzision und Erinnerung. Die y-Achse des Rückrufs ist eine echte positive Rate (die auch Rückruf ist). Manchmal können Klassifikatoren einen geringen Rückruf aufweisen, aber eine sehr hohe AUC. Was bedeutet das? Was sind die Unterschiede zwischen AUC und...
Warum ist der Bereich unter der ROC-Kurve die Wahrscheinlichkeit, dass ein Klassifizierer eine zufällig ausgewählte "positive" Instanz (aus den abgerufenen Vorhersagen) höher einstuft als eine zufällig ausgewählte "positive" Instanz (aus der ursprünglichen positiven Klasse)? Wie kann man diese...
Kaggles Wettbewerb Die Safe Driver Prediction von Porto Seguro verwendet den normalisierten Gini-Score als Bewertungsmaßstab. Dies hat mich neugierig gemacht, welche Gründe für diese Entscheidung sprechen . Was sind die Vorteile der Verwendung eines normalisierten Gini-Scores anstelle der...
Ich habe zwei Modelle trainiert (binäre Klassifikatoren mit h2o AutoML) und möchte eines zur Verwendung auswählen. Ich habe folgende Ergebnisse: model_id auc logloss logloss_train logloss_valid gini_train gini_valid DL_grid_1 0.542694 0.287469 0.092717 0.211956 0.872932 0.312975 DL_grid_2...
Beim maschinellen Lernen können wir den Bereich unter der ROC-Kurve (oft als AUC oder AUROC abgekürzt ) verwenden, um zusammenzufassen, wie gut ein System zwischen zwei Kategorien unterscheiden kann. In der Signaldetektionstheorie wird häufig der d'd'd' (Empfindlichkeitsindex) für einen ähnlichen...
Ausgehend von einem Datensatz mit binären Ergebnissen und einer Prädiktormatrix schätzt das logistische Standardregressionsmodell die Koeffizienten , die die Binomialwahrscheinlichkeit maximieren. Wenn vollen Rang hat, ist eindeutig. Wenn keine perfekte Trennung vorliegt, ist sie...