Ich habe schon früher danach gefragt und mich wirklich schwer getan, herauszufinden, was einen Modellparameter ausmacht und was ihn zu einer latenten Variablen macht. Wenn man sich also verschiedene Themen zu diesem Thema auf dieser Website ansieht, scheint der Hauptunterschied zu sein:
Latente Variablen werden nicht beobachtet, haben aber eine zugehörige Wahrscheinlichkeitsverteilung, da sie Variablen und Parameter sind, die ebenfalls nicht beobachtet werden und mit denen keine Verteilung verbunden ist, die meines Wissens Konstanten sind und einen festen, aber unbekannten Wert haben, den wir versuchen finden. Außerdem können wir den Parametern Prioritäten zuweisen, um unsere Unsicherheit über diese Parameter darzustellen, obwohl nur ein einziger echter Wert damit verbunden ist oder zumindest das, was wir annehmen. Ich hoffe ich bin soweit richtig?
Nun habe ich mir dieses Beispiel für eine Bayesianische gewichtete lineare Regression aus einer Zeitschrift angesehen und mich wirklich bemüht, zu verstehen, was ein Parameter und was eine Variable ist:
Hier werden und y beobachtet, aber nur y wird als Variable behandelt, dh es ist eine Verteilung zugeordnet.
Die Modellierungsannahmen lauten nun:
Die Varianz von wird also gewichtet.
Es gibt auch eine vorherige Verteilung von und w , die Normal- bzw. Gammaverteilungen sind.
Die volle Log-Wahrscheinlichkeit ergibt sich also aus:
Nun, wie ich es verstehe, sind sowohl als auch w Modellparameter. In dem Artikel werden sie jedoch weiterhin als latente Variablen bezeichnet. Meine Argumentation ist β und w sind beide Teil der Wahrscheinlichkeitsverteilung für die Variable y und sie sind Modellparameter. Die Autoren behandeln sie jedoch als latente Zufallsvariablen. Ist das korrekt? Wenn ja, wie lauten die Modellparameter?
Das Papier finden Sie hier ( http://www.jting.net/pubs/2007/ting-ICRA2007.pdf ).
Das Papier ist Automatic Outlier Detection: Ein Bayesianischer Ansatz von Ting et al.
Antworten:
In der Arbeit und im Allgemeinen sind (Zufalls-) Variablen alles, was aus einer Wahrscheinlichkeitsverteilung gezogen wird. Latente (zufällige) Variablen sind diejenigen, die Sie nicht direkt beobachten (y wird beobachtet, β ist nicht, aber beide sind rv). Aus einer latenten Zufallsvariablen können Sie eine posteriore Verteilung erhalten, deren Wahrscheinlichkeitsverteilung von den beobachteten Daten abhängt.
Andererseits ist ein Parameter fest, auch wenn Sie seinen Wert nicht kennen. Die Maximum-Likelihood-Schätzung gibt beispielsweise den wahrscheinlichsten Wert Ihres Parameters an. Aber es gibt Ihnen einen Punkt, keine vollständige Verteilung, weil feste Dinge keine Verteilungen haben! (Sie können eine Verteilung festlegen, wie sicher Sie über diesen Wert sind oder in welchem Bereich Sie sich befinden. Dies entspricht jedoch nicht der Verteilung des Werts selbst, der nur vorhanden ist, wenn es sich bei dem Wert tatsächlich um einen Zufallswert handelt Variable)
In diesem Satz:
In der Theorie sprechen sie über die beiden Parameter und nicht über die Zufallsvariablen, da Sie in EM dies tun, um die Parameter zu optimieren.
quelle