Bei binären Klassifizierungsproblemen scheint der F1-Score häufig als Leistungsmaß verwendet zu werden. Soweit ich verstanden habe, besteht die Idee darin, den besten Kompromiss zwischen Präzision und Rückruf zu finden. Die Formel für die F1-Punktzahl ist in Präzision und Rückruf symmetrisch. Es gibt jedoch (und das stört mich) eine Asymmetrie zwischen Präzision und Erinnerung. Während der Rückruf eine Eigenschaft des Klassifikators ist, die von früheren Wahrscheinlichkeiten unabhängig ist, ist die Genauigkeit eine Größe, die von den vorherigen Wahrscheinlichkeiten abhängt.
Kann mir jemand sagen, was an der Kombination aus Präzision und Rückruf so besonders ist? Warum verwenden wir keine Präzision (das ist der positive Vorhersagewert ) und keinen negativen Vorhersagewert ?
quelle