Angenommen, ist abhängig von . Genau genommen
wenn und beide Zufallsvariablen sind, könnten wir schreiben ;α p ( X ≤ α )
Wenn jedoch eine Zufallsvariable und ein Parameter ist, müssen wir schreiben .
Ich stelle mehrmals fest, dass die Community für maschinelles Lernen die Unterschiede zu ignorieren scheint und die Begriffe missbraucht.
Zum Beispiel im berühmten LDA-Modell, bei dem der Dirichlet-Parameter anstelle einer Zufallsvariablen ist.
Sollte es nicht ? Ich sehe viele Leute, einschließlich der ursprünglichen Autoren des LDA-Papiers, die es als p ( θ ∣ α ) schreiben .
machine-learning
terminology
Spielende Geschwister
quelle
quelle
Antworten:
Ich denke, das ist mehr über Bayesian / Nicht-Bayesian-Statistiken als über maschinelles Lernen vs. Statistik.
In der Bayes'schen Statistik werden Parameter ebenfalls als Zufallsvariablen modelliert. Wenn Sie eine gemeinsame Verteilung für , p ( X ∣ α ) eine bedingte Verteilung, unabhängig von der physikalischen Interpretation von X und α . Wenn man nur feste αs berücksichtigt oder auf andere Weise keine Wahrscheinlichkeitsverteilung über α legt , sind die Berechnungen mit p ( X ; α ) genau die gleichen wie mit p ( X ∣ α ) mit p ( αX,α p(X∣α) X α α α p(X;α) p(X∣α) . Darüber hinaus kann man jederzeit entscheiden, das Modell mit festen Werten von α auf einenWert zu erweitern, bei demeine vorherige Verteilung über α vorliegt . Für mich zumindest scheint es seltsamdass die Notation für die Verteilung-given- α an dieser Stelle ändern sollte, weshalb einige Bayesianer bevorzugen auch die Konditionierung Schreibweise zu benutzenwenn man nicht hat (noch?) Gestört alle Parameter als Zufallsvariablen zu definieren .p(α) α α α
Argumente dafür, ob man als p ( X ∣ α ) schreiben kann, wurden auch in Kommentaren von Andrew Gelmans Blog-Post Misunderstanding the p- value laut . Zum Beispiel war Larry Wasserman der Meinung, dass ∣ nicht erlaubt ist, wenn es keine Konditionierung von der Fuge gibt, während Andrew Gelman der gegenteiligen Meinung war.p(X;α) p(X∣α) p ∣
quelle