Hintergrund: Ein Großteil der modernen Forschung in den letzten ~ 4 Jahren (nach Alexander Net ) scheint von der Verwendung von generativem Pretraining für neuronale Netze abgewichen zu sein, um Klassifizierungsergebnisse auf dem neuesten Stand der Technik zu erzielen.
Zum Beispiel beinhalten die Top-Ergebnisse für Mnist hier nur 2 Artikel der Top 50, die generative Modelle zu verwenden scheinen, die beide RBMs sind. Die anderen 48 Gewinnerbeiträge befassen sich mit unterschiedlichen diskriminativen Feed-Forward-Architekturen, wobei große Anstrengungen unternommen werden, um bessere / neuartige Gewichtungsinitialisierungen und Aktivierungsfunktionen zu finden, die sich vom Sigmoiden unterscheiden, das im RBM und in vielen älteren neuronalen Netzen verwendet wird.
Frage: Gibt es einen modernen Grund, Restricted Boltzmann Machines mehr einzusetzen?
Wenn nicht, gibt es eine De-facto-Änderung, die man auf diese Feed-Forward-Architekturen anwenden kann, um eine ihrer Ebenen generativ zu machen?
Motivation: Ich frage, weil einige der Modelle, die mir zur Verfügung stehen, normalerweise Varianten des RBM, nicht unbedingt offensichtliche analoge Unterscheidungsgegenstücke zu diesen generativen Schichten / Modellen aufweisen und umgekehrt. Beispielsweise:
CRBM (obwohl man könnte die CNN argumentieren , solche voraus Architekturen füttern ist die diskriminativen analog Architektur)
Auch diese waren eindeutig vor alexnet, von 2010, 2011 und 2009 respektvoll.