Deep Believe Networks oder Deep Boltzmann Machines?


28

Ich bin verwirrt. Gibt es einen Unterschied zwischen Deep Believe-Netzwerken und Deep Boltzmann-Maschinen? Wenn ja, was ist der Unterschied?


2
Der Wikipedia-Artikel über Deep Believe-Netzwerke ist ziemlich klar, obwohl es nützlich / aufschlussreich wäre, ein größeres Bild der Etymologie / Geschichte der Begriffe zu haben. Grundsätzlich ist ein Deep-Believe-Netzwerk ziemlich analog zu einem Deep-Neural-Netzwerk aus der Wahrscheinlichkeitsrechnung, und Deep-Boltzmann-Maschinen sind ein Algorithmus, der zur Implementierung eines Deep-Believe-Netzwerks verwendet wird. Anscheinend haben alle ANN probabilistische Interpretationen / Modelle, aber sie sind nicht so einfach / direkt zu erhalten wie einige bayesianisch / probabilistisch orientierte "Glaubens" -Modelle.
VZN

Antworten:


19

Obwohl Deep Belief Networks (DBNs) und Deep Boltzmann Machines (DBMs) diagrammatisch sehr ähnlich aussehen, sind sie tatsächlich qualitativ sehr unterschiedlich. Dies liegt daran, dass DBNs gerichtet und DBMs ungerichtet sind. Wenn wir sie in das breitere ML-Bild einpassen wollten, könnten wir sagen, DBNs sind sigmoidale Glaubensnetzwerke mit vielen dicht verbundenen Schichten latenter Variablen und DBMs sind Markov-Zufallsfelder mit vielen dicht verbundenen Schichten latenter Variablen.

P(v|h)vhP

Davon abgesehen gibt es Ähnlichkeiten. Beispielsweise:

  1. DBNs und das ursprüngliche DBM arbeiten beide mit Initialisierungsschemata, die auf gierigem schichtweisem Training von eingeschränkten Bolzmann-Maschinen (RBMs) basieren.
  2. Sie sind beide "tief".
  3. Beide weisen Schichten latenter Variablen auf, die dicht mit den darüber und darunter liegenden Schichten verbunden sind, jedoch keine Verbindungen zwischen den Schichten usw. aufweisen.

1
Wie können DBNs sigmoide Glaubensnetzwerke sein? !! Die Schichten eines DBN sind RBMs, also ist jede Schicht ein Markov-Zufallsfeld!
Jack Twain

Ich denke, es gibt einen Tippfehler hier "Dies liegt daran, dass DBMs gerichtet und DBMs ungerichtet sind." Ich denke, Sie meinten, DBNs sind ungerichtet
Jack Twain

@AlexTwain Ja, sollte lauten "DBNs sind gerichtet". Obwohl Sie eine DBN initialisieren können, indem Sie zuerst eine Reihe von RBMs lernen, lösen Sie am Ende in der Regel die Gewichte und erhalten ein tiefes Sigmoid-Glaubensnetzwerk (gerichtet). In vielen der ursprünglichen DBN-Arbeiten haben die Leute die oberste Schicht ungerichtet gelassen und dann mit so etwas wie Wake-Sleep bestraft. In diesem Fall haben Sie einen Hybrid.
Alt

Meinen Sie in 3., dass sie keine "Intralayer" -Verbindungen haben (z. B. zwischen Knoten in der verborgenen Ebene) anstatt einer * Zwischenebene (z. B. von der Eingabe in die verborgene Ebene)?
Ddiez

@ddiez Ja, so sollte das lesen. Danke für die Korrektur.
Alt

4

Bei beiden handelt es sich um probabilistische grafische Modelle, die aus gestapelten RBM-Schichten bestehen. Der Unterschied besteht darin, wie diese Schichten verbunden sind.

Dieser Link macht es ziemlich klar: http://jmlr.org/proceedings/papers/v5/salakhutdinov09a/salakhutdinov09a.pdf . Besonders relevant sind Abbildung 2 und Abschnitt 3.1.

Zusammenfassen:

In einem DBN sind die Verbindungen zwischen Schichten gerichtet. Daher bilden die ersten beiden Schichten ein RBM (ein ungerichtetes grafisches Modell) und die nachfolgenden Schichten ein gerichtetes generatives Modell.

In einem DBM ist die Verbindung zwischen allen Ebenen ungerichtet, sodass jedes Ebenenpaar eine RBM bildet.


Wird also noch eine Deep-Boltzmann-Maschine aus RBM gebaut? Ich stütze meine Schlussfolgerung auf die Einführung und das Bild in der Zeitung
Marin,
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.