Dies ist aus einer Closed Beta für AI, wobei diese Frage von Benutzer Nummer 47 gepostet wird.
Laut Wikipedia ,
Boltzmann-Maschinen können als das stochastische, generative Gegenstück zu Hopfield-Netzen angesehen werden.
Beide sind wiederkehrende neuronale Netze, die darauf trainiert werden können, Bitmuster zu lernen. Wenn ein Teilmuster angezeigt wird, ruft das Netz das vollständige Muster ab.
Hopfield-Netzwerke haben nachweislich eine Kapazität von 0,138 (z. B. können ungefähr 138 Bit-Vektoren für jeweils 1000 Knoten aus dem Speicher abgerufen werden, Hertz 1991).
Da eine Boltzmann-Maschine stochastisch ist, wird meines Erachtens nicht immer dasselbe Muster angezeigt, wenn die Energiedifferenz zwischen einem gespeicherten Muster und einem anderen ähnlich ist. Aber aufgrund dieser Stochastizität ist möglicherweise eine dichtere Musterspeicherung möglich, ohne jedoch die Garantie zu haben, dass Sie immer das "nächstgelegene" Muster in Bezug auf die Energiedifferenz erhalten. Wäre das wahr? Oder könnte ein Hopfield-Netz mehr Muster speichern?