Dies ist eine eher allgemeine Frage (dh nicht unbedingt spezifisch für Statistiken), aber ich habe einen Trend in der maschinellen Lern- und statistischen Literatur festgestellt, bei dem Autoren den folgenden Ansatz bevorzugen:
Ansatz 1 : Erhalten Sie eine Lösung für ein praktisches Problem, indem Sie eine Kostenfunktion formulieren, für die es möglich ist (z. B. aus rechnerischer Sicht), eine global optimale Lösung zu finden (z. B. durch Formulierung einer konvexen Kostenfunktion).
eher, als:
Ansatz 2 : Erhalten Sie eine Lösung für dasselbe Problem, indem Sie eine Kostenfunktion formulieren, für die wir möglicherweise keine global optimale Lösung erhalten können (z. B. können wir nur eine lokal optimale Lösung dafür erhalten).
Beachten Sie, dass die beiden Probleme streng genommen unterschiedlich sind. Die Annahme ist, dass wir die global optimale Lösung für die erste finden können, aber nicht für die zweite.
Abgesehen von anderen Überlegungen (z. B. Geschwindigkeit, einfache Implementierung usw.) suche ich:
- Eine Erklärung dieses Trends (zB mathematische oder historische Argumente)
- Vorteile (praktisch und / oder theoretisch) für die Befolgung von Ansatz 1 anstelle von 2 bei der Lösung eines praktischen Problems.
quelle
@NRH hat eine Antwort auf diese Frage gegeben (vor über 5 Jahren), daher biete ich nur einen Ansatz 3 an, der die Ansätze 1 und 2 kombiniert.
Ansatz 3 :
quelle