Als «variational-bayes» getaggte Fragen

Variations-Bayes'sche Methoden nähern sich schwer zu handhabenden Integralen an, die in der Bayes'schen Inferenz und im maschinellen Lernen zu finden sind. In erster Linie dienen diese Methoden einem von zwei Zwecken: Annäherung der posterioren Verteilung oder Begrenzung der Grenzwahrscheinlichkeit beobachteter Daten.

13
Was bedeutet eine "nachvollziehbare" Verteilung?

Zum Beispiel hören wir in einem generativen kontradiktorischen Netzwerk oft, dass Inferenz einfach ist, weil die bedingte Verteilung von x bei gegebener latenter Variable z 'traktierbar' ist. Außerdem habe ich irgendwo gelesen, dass eine Boltzmann-Maschine und ein Variations-Autoencoder verwendet...

12
Variationsinferenz, KL-Divergenz erfordert wahres

Nach meinem (sehr bescheidenen) Verständnis der Variationsinferenz versucht man, eine unbekannte Verteilung zu approximieren, pppindem man eine Verteilung qqq , die Folgendes optimiert: KL(p||q)=∑xp(x)logp(x)q(x)KL(p||q)=∑xp(x)logp(x)q(x)KL (p||q) = \sum\limits_{x} p(x)log \frac {p(x)}{q(x)} Immer...

10
Variational Bayes kombiniert mit Monte Carlo

Ich lese über Variations-Bayes nach, und so wie ich es verstehe, kommt es auf die Idee an, dass Sie approximieren (wobei die latenten Variablen Ihres Modells undp ( z∣ x )p(z∣x)p(z\mid x)zzzxxx die beobachteten Daten sind) mit einer Funktion approximieren , wobei angenommen wird, dass q als q i ( z...

8
Variationsinferenzmaschinen

Nach einigen Recherchen zu diesem Thema habe ich ein überraschendes Defizit an Inferenzpaketen und Bibliotheken festgestellt, die auf Nachrichtenübermittlungs- oder Optimierungsmethoden für Python und R beruhen. Nach meinem besten Wissen sind diese Methoden äußerst nützlich. Zum Beispiel sollte für...