Ich habe Mühe, die mathematische Verbindung zwischen einem neuronalen Netzwerk und einem grafischen Modell herzustellen.
In grafischen Modellen ist die Idee einfach: Die Wahrscheinlichkeitsverteilung wird gemäß den Cliquen in der Grafik faktorisiert, wobei die Potentiale normalerweise aus der Exponentialfamilie stammen.
Gibt es eine äquivalente Begründung für ein neuronales Netzwerk? Kann man die Wahrscheinlichkeitsverteilung über die Einheiten (Variablen) in einer Restricted Boltzmann-Maschine oder einem CNN als Funktion ihrer Energie oder das Produkt der Energien zwischen Einheiten ausdrücken?
Wird die Wahrscheinlichkeitsverteilung auch von einem RBM- oder Deep-Believe-Netzwerk (z. B. mit CNNs) der Exponentialfamilie modelliert?
Ich hoffe, einen Text zu finden, der die Verbindung zwischen diesen modernen Arten neuronaler Netze und Statistiken auf die gleiche Weise formalisiert, wie es Jordan & Wainwright für grafische Modelle mit ihren grafischen Modellen, Exponentialfamilien und Variationsinferenzen getan hat . Alle Hinweise wären toll.
"using deep nets as factors in an MRF"
), sondern vielmehr, wie man ein tiefes Netz als Wahrscheinlichkeitsfaktordiagramm betrachtet. Wenn Yann LeCun sagt "of course deep Boltzmann Machines are a form of probabilistic factor graph themselves"
, bin ich daran interessiert, diesen Zusammenhang mathematisch zu sehen.
https://distill.pub/2017/feature-visualization/
( Wie neuronale Netze ihr Verständnis von Bildern aufbauen ), indem ein komplexes Bild Komponentenobjekte enthält, die durch Knoten versteckter Schichten dargestellt werden. Die Gewichte können die "Topologie" auf nicht diskrete Weise "verändern". Obwohl ich es nicht gesehen habe, könnten einige Methoden Schrumpfungsfaktoren enthalten, um Kanten zu entfernen und daher die ursprüngliche Topologie zu ändern