Beim maschinellen Lernen wird über Zielfunktion, Kostenfunktion und Verlustfunktion gesprochen. Sind sie nur verschiedene Namen der gleichen Sache? Wann benutzt man sie? Was sind die Unterschiede, wenn sie sich nicht immer auf dasselbe beziehen?
80
Antworten:
Dies sind keine sehr strengen Begriffe und sie sind eng miteinander verbunden. Jedoch:
Um es kurz zu machen, ich würde sagen:
Eine Verlustfunktion ist Teil einer Kostenfunktion, die eine Art Zielfunktion ist.
quelle
Laut Prof. Andrew Ng (siehe Folien auf Seite 11)
Die Funktion h (X) repräsentiert Ihre Hypothese. Für feste Anpassungsparameter Theta ist es eine Funktion von Merkmalen X. Ich würde sagen, dass dies auch die Zielfunktion genannt werden kann.
Die Kostenfunktion J ist eine Funktion der Anpassungsparameter Theta. J = J (Theta).
Nach dem Lehrbuch "Elements of Statistical Learning" von Hastie et al. Von S.37:
Es scheint also, dass "Verlustfunktion" ein etwas allgemeinerer Begriff ist als "Kostenfunktion". Wenn Sie in diesem PDF nach "loss" suchen, verwenden sie meiner Meinung nach "cost function" und "loss function" synonym.
In der Tat, p. 502
Vielleicht existieren diese Begriffe, weil sie sich in verschiedenen akademischen Gemeinschaften unabhängig voneinander entwickelt haben. "Objektive Funktion" ist ein alter Begriff, der in Operations Research und Engineering Mathematics verwendet wird. Die "Verlustfunktion" ist unter Statistikern möglicherweise häufiger in Gebrauch. Aber ich spekuliere hier.
quelle
In Andrew NGs Worten
quelle
Aus Abschnitt 4.3 in "Deep Learning" - Ian Goodfellow, Aaron Courville, Yoshua Bengio http://www.deeplearningbook.org/
"Die Funktion, die wir minimieren oder maximieren möchten, wird als Zielfunktion oder Kriterium bezeichnet. Wenn wir sie minimieren, können wir sie auch als Kostenfunktion, Verlustfunktion oder Fehlerfunktion bezeichnen. In diesem Buch verwenden wir diese Begriffe synonym. obwohl einige Veröffentlichungen zum maschinellen Lernen einigen dieser Begriffe eine besondere Bedeutung beimessen. "
Zumindest in diesem Buch sind Verlust und Kosten gleich.
quelle
Um dir eine kurze Antwort zu geben, laut mir sind sie auch. Die Kostenfunktion wird jedoch häufiger beim Optimierungsproblem und die Verlustfunktion bei der Parameterschätzung verwendet.
quelle
Die Begriffe Kosten- und Verlustfunktion werden von manchen Leuten auch als Fehlerfunktion bezeichnet. Das allgemeinere Szenario besteht darin, zuerst eine Zielfunktion zu definieren, die wir optimieren möchten. Diese Zielfunktion könnte darin bestehen,
quelle
Eigentlich um einfach zu sein Wenn Sie m Trainingsdaten wie diese haben (x (1), y (1)), (x (2), y (2)),. . . (x (m), y (m)) Wir verwenden die Verlustfunktion L (ycap, y), um den Verlust zwischen ycap und y eines einzelnen Trainingssatzes zu ermitteln. Wenn wir den Verlust zwischen ycap und y eines gesamten Trainingssatzes ermitteln möchten, verwenden wir Kostenfunktion.
Hinweis: - ycap bedeutet Ausgabe von unserem Modell und y bedeutet erwartete Ausgabe
Hinweis: - Kredit geht an Andrew ng Ressource: coursera neuronales Netzwerk und tiefes Lernen
quelle
Die Verlustfunktion berechnet den Fehler für ein einzelnes Trainingsbeispiel, während die Kostenfunktion der Durchschnitt der Verlustfunktionen des gesamten Trainingssatzes ist.
quelle