Ich bin neu im maschinellen Lernen und versuche es selbst zu lernen. Kürzlich las ich einige Vorlesungsunterlagen durch und hatte eine grundlegende Frage.
Folie 13 besagt, dass "Least-Square-Schätzung mit Maximum-Likelihood-Schätzung nach einem Gaußschen Modell identisch ist". Es scheint etwas Einfaches zu sein, aber ich kann das nicht sehen. Kann mir bitte jemand erklären, was hier los ist? Ich bin daran interessiert, die Mathematik zu sehen.
Ich werde später versuchen, den probabilistischen Standpunkt der Ridge- und Lasso-Regression ebenfalls zu sehen. Wenn es also Vorschläge gibt, die mir helfen, wird dies auch sehr geschätzt.
Antworten:
Im Modell
wo , die loglikelihood von Y | X für eine Stichprobe von n Probanden ist (bis zu einer additiven Konstante)ε ~ N( 0 , σ2) Y.| X n
nur als Funktion von , ist der Maximierer genau der, der minimiertβ
macht dies die Äquivalenz klar?
quelle
n/2 log(2 *pi)