Ich habe eine Wahrscheinlichkeitsfunktion für die Wahrscheinlichkeit meiner Daten bei einigen Modellparametern , die ich schätzen möchte. Unter der Annahme flacher Prioritäten für die Parameter ist die Wahrscheinlichkeit proportional zur posterioren Wahrscheinlichkeit. Ich benutze eine MCMC-Methode, um diese Wahrscheinlichkeit abzutasten.
Wenn ich mir die resultierende konvergierte Kette anschaue, stelle ich fest, dass die Maximum-Likelihood-Parameter nicht mit den posterioren Verteilungen übereinstimmen. Zum Beispiel könnte die marginalisierte hintere Wahrscheinlichkeitsverteilung für einen der Parameter , während der Wert von am maximalen Wahrscheinlichkeitspunkt , was im Wesentlichen fast dem Maximalwert von vom MCMC-Sampler durchlaufen wird.
Dies ist ein anschauliches Beispiel, nicht meine tatsächlichen Ergebnisse. Die realen Verteilungen sind weitaus komplizierter, aber einige der ML-Parameter weisen in ihren jeweiligen posterioren Verteilungen ähnlich unwahrscheinliche p-Werte auf. Beachten Sie, dass einige meiner Parameter begrenzt sind (z. B. ); Innerhalb der Grenzen sind die Prioritäten immer einheitlich.
Meine Fragen sind:
Ist eine solche Abweichung per se ein Problem ? Natürlich erwarte ich nicht, dass die ML-Parameter genau mit den Maxima jeder ihrer marginalisierten posterioren Verteilungen übereinstimmen, aber intuitiv fühlt es sich so an, als ob sie auch nicht tief im Schwanz gefunden werden sollten. Macht diese Abweichung meine Ergebnisse automatisch ungültig?
Ob dies notwendigerweise problematisch ist oder nicht, könnte es in einem bestimmten Stadium der Datenanalyse symptomatisch für bestimmte Pathologien sein? Ist es beispielsweise möglich, eine allgemeine Aussage darüber zu treffen, ob eine solche Abweichung durch eine nicht ordnungsgemäß konvergierte Kette, ein falsches Modell oder zu enge Grenzen für die Parameter verursacht werden könnte?