Ich habe unten ein Beispiel aus der Dokumentation sklearn.metrics.classification_report von sklearn.
Was ich nicht verstehe, ist, warum es für jede Klasse, für die ich glaube, dass die Klasse das Prädiktorlabel ist, Werte für f1-Punktzahl, Präzision und Rückruf gibt? Ich dachte, der f1-Score sagt Ihnen die Gesamtgenauigkeit des Modells. Was sagt uns auch die Support-Spalte? Ich konnte keine Informationen dazu finden.
print(classification_report(y_true, y_pred, target_names=target_names))
precision recall f1-score support
class 0 0.50 1.00 0.67 1
class 1 0.00 0.00 0.00 1
class 2 1.00 0.67 0.80 3
avg / total 0.70 0.60 0.61 5
avg / total
? Es scheint nicht mit den Spaltenmitteln übereinzustimmen ... Wie wird es berechnet und was bedeutet es?(0.50*1 + 0.0*1 + 1.0*3)/5 = 0.70
. Die Summe ist nur für die gesamte Unterstützung, die hier 5 ist.