Kürzlich las ich einige Artikel über das Bayesianische Neuronale Netz (BNN) [Neal, 1992] , [Neal, 2012] , in denen eine Wahrscheinlichkeitsrelation zwischen der Eingabe und der Ausgabe in einem Neuronalen Netz angegeben ist. Das Trainieren eines solchen neuronalen Netzwerks erfolgt durch MCMC, was sich von dem herkömmlichen Backpropagation-Algorithmus unterscheidet.
Meine Frage ist: Was ist der Vorteil eines solchen neuronalen Netzwerks? Könnten Sie im Einzelnen einige Beispiele nennen, die besser zu BNN als zu NN passen?
quelle
Ein Vorteil des BNN gegenüber dem NN besteht darin, dass Sie beim Umgang mit Daten unbekannter Ziele automatisch einen Fehler berechnen können, der mit Ihren Vorhersagen zusammenhängt. Mit einer BNN führen wir jetzt Bayes'sche Inferenz durch. Lassen Sie uns definieren unsere BNN Vorhersage als , wobei f ist die NN - Funktion, x ' sind Ihre Eingaben, ωf¯(x'|x,t)=∫f(x',ω)p(ω|x,t)dω f x′ ω sind die NN-Parameter und x, t sind die Trainingseingaben und -ziele. Dies sollte mit der von Neal in den von @forecaster bereitgestellten Links verwendeten Syntax kompatibel sein. Dann können wir eine Standardabweichung der posterioren Vorhersageverteilung berechnen, die ich naiv als Genauigkeit für die Vorhersage verwenden würde: σ(x')=∫[f(x',ω)−f¯(x'|x,t)]2p(ω|x,t)dω−−−−−−−−−−−−−−−−−−−−−−−−−−−√
quelle