Kann eine Boltzmann-Maschine mehr Muster speichern als ein Hopfield-Netz?

16

Dies ist aus einer Closed Beta für AI, wobei diese Frage von Benutzer Nummer 47 gepostet wird.


Laut Wikipedia ,

Boltzmann-Maschinen können als das stochastische, generative Gegenstück zu Hopfield-Netzen angesehen werden.

Beide sind wiederkehrende neuronale Netze, die darauf trainiert werden können, Bitmuster zu lernen. Wenn ein Teilmuster angezeigt wird, ruft das Netz das vollständige Muster ab.

Hopfield-Netzwerke haben nachweislich eine Kapazität von 0,138 (z. B. können ungefähr 138 Bit-Vektoren für jeweils 1000 Knoten aus dem Speicher abgerufen werden, Hertz 1991).

Da eine Boltzmann-Maschine stochastisch ist, wird meines Erachtens nicht immer dasselbe Muster angezeigt, wenn die Energiedifferenz zwischen einem gespeicherten Muster und einem anderen ähnlich ist. Aber aufgrund dieser Stochastizität ist möglicherweise eine dichtere Musterspeicherung möglich, ohne jedoch die Garantie zu haben, dass Sie immer das "nächstgelegene" Muster in Bezug auf die Energiedifferenz erhalten. Wäre das wahr? Oder könnte ein Hopfield-Netz mehr Muster speichern?

Mithical
quelle

Antworten:

2

In der Tat ist Ihre Intuition richtig, eine Boltzmann-Maschine kann aufgrund ihrer stochastischen Natur, wie sie in diesem Artikel erläutert wird, mehr als ein Hopfield-Netzwerk im Gedächtnis behalten . In der Zeitung stellen sie fest, dass die Kapazität bei 0,6 liegt. Nach diesem Verhältnis beginnt es zusammenzubrechen und fügt den aufgerufenen Mustern viel mehr Rauschen hinzu.

Jaden Travnik
quelle