Ist MLE mit Regularisierung eine Bayes'sche Methode?

8

Es wird normalerweise gesagt, dass Prioritäten in der Bayes'schen Statistik als Regularisierungsfaktoren angesehen werden können, da sie Lösungen benachteiligen, bei denen der Prior eine geringe Wahrscheinlichkeitsdichte aufweist.

Dann ist dieses einfache Modell gegeben, dessen MLE-Parameter sind:

argmaxμ N(y;μ,σ)

und ich füge einen Prior hinzu: Die Parameter sind nicht die MLE-Parameter, sondern die MAP-Parameter.

argmaxμ N(y;μ,σ)N(μ;0,σ0)

Frage : Bedeutet dies, dass ich eine Bayes'sche Analyse durchführe, wenn ich in meinem Modell eine Regularisierung einführe (auch wenn nur Punktschätzungen verwendet werden)?

Oder macht dies an dieser Stelle einfach keinen Sinn, diese "ontologische" Unterscheidung zu treffen, da die Methode zum Finden von MLE oder MAP dieselbe ist (nicht wahr?)?

alberto
quelle

Antworten:

10

Dies bedeutet, dass die Analyse eine Bayes'sche Interpretation hat, aber das bedeutet nicht, dass sie möglicherweise auch keine frequentistische Interpretation hat. Die MAP-Schätzung könnte als partieller Bayes'scher Ansatz angesehen werden, wobei ein vollständigerer Bayes'scher Ansatz darin besteht, die posteriore Verteilung über die Parameter zu berücksichtigen. Es ist jedoch immer noch ein Bayes'scher Ansatz, da die Definition der Wahrscheinlichkeit eher ein "Grad an Plausibilität" als eine langfristige Häufigkeit wäre.

Dikran Beuteltier
quelle
5

Wenn Sie die L2-Norm verwenden, dh eine quadratische Strafe für die Log-Likelihood-Funktion, ist die Bestrafung einem Bayes'schen Verfahren mit einem Gaußschen Prior mit dem Mittelwert Null für die Nicht-Intercept-Regressionskoeffizienten sehr ähnlich. Im Gegensatz zum vollständigen Bayes'schen Verfahren, das die Unsicherheit über das Ausmaß der Bestrafung berücksichtigt (analog zur Behandlung der Varianz zufälliger Effekte als bekannte Konstante), gibt das Verfahren der bestraften maximalen Wahrscheinlichkeit vor, dass die optimale Strafe vorab festgelegt wurde und ist kein unbekannter Parameter. Dies führt zu etwas zu engen Konfidenzgrenzen.

Frank Harrell
quelle
2
+1 guter Punkt, ohne Berücksichtigung der Unsicherheit in den Hyperparametern ist Empirical Bayes.
Dikran Marsupial