Was ist Bayesian Deep Learning?


13

Was ist Bayesian Deep Learning und in welcher Beziehung steht es zur traditionellen Bayesianischen Statistik und zum traditionellen Deep Learning?

Was sind die wichtigsten Konzepte und Mathematik? Kann ich sagen, dass es sich nur um nicht parametrische Bayes-Statistiken handelt? Was sind seine wegweisenden Arbeiten sowie seine aktuellen Hauptentwicklungen und -anwendungen?

PS: Bayesian Deep Learning bekommt viel Aufmerksamkeit, siehe NIPS-Workshop.

Antworten:


10

Als Yee Whye Teh von Ihrem NIPS-Workshop-Link abbrach, hielt er eine Grundsatzrede bei NIPS zum Bayesian Deep Learning (Video: https://www.youtube.com/watch?v=LVBvJsTr3rg , Folien: http: //csml.stats). ox.ac.uk/news/2017-12-08-ywteh-breiman-lecture/). Ich denke, irgendwann im Vortrag fasste Teh das Bayes'sche Tiefenlernen als Anwendung des Bayes'schen Rahmens auf Ideen aus dem Tiefenlernen (wie das Erlernen eines Seitenzahns über die Gewichte eines neuronalen Netzwerks) und das tiefe Bayes'sche Lernen als Anwendung von Ideen aus dem Tiefenlernen auf das Bayes'sches Gerüst (wie tiefe Gauß'sche Prozesse oder tiefe Exponentialfamilien). Es gibt natürlich Ideen, die die Grenze zwischen den beiden Konzepten überschreiten, wie beispielsweise variierende Autoencoder. Wenn die meisten Leute Bayesian Deep Learning sagen, meinen sie normalerweise eines der beiden, und das spiegelt sich in den akzeptierten Beiträgen des Workshops wider, den Sie verlinkt haben (zusammen mit dem Workshop im Vorjahr). Während die Ideen auf Neals Arbeit über das Bayesianische Lernen neuronaler Netze in den 90er Jahren zurückgehen (http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.446.9306&rep=rep1&type=pdf ), und seitdem wurde in den letzten Jahren wahrscheinlich eine der wichtigsten Arbeiten der jüngeren Zeit veröffentlicht Originalpapier mit variierendem Autoencoder ( https://arxiv.org/pdf/1312.6114.pdf ).


10

Ich würde vorschlagen, dass Sie zuerst einen guten Überblick über das zugrunde liegende probabilistische Modell in einem traditionellen Bayesian Neural Network erhalten. Im Folgenden werden einige Begriffe fett gedruckt . Bitte versuchen Sie, diese Begriffe zu googeln, um detailliertere Informationen zu erhalten. Dies ist nur eine grundlegende Übersicht. Ich hoffe, es hilft.

Betrachten wir den Fall der Regression in vorwärtsgerichteten neuronalen Netzen und führen Sie eine Notation ein.

(x1,,xp)=:(z1(0),,zN0(0))(z1(),,zN())=1,,L1 (y1,,yk)=:(z1(L),,zNL(L))

iwij()bi()=1,,Li=1,Nj=1,,N1

gi():RN1Ri=1,,Li=1,N

Häufig verwendete Aktivierungsfunktionen sind die Logistik , ReLU (auch als positiver Teil bezeichnet ) und Tanh .

=1,,L

G():RN1RN:(z1(1),,zN1(1))(z1(),,zN()),
zi()=gi()(j=1N1wij()zj(1)+bi()),
i=1,,N

θ

θ={wij(),bi():=1,,L;i=1,N;j=1,,N1},
Gθ:RpRk
Gθ=G(L)G(L1)G(1).

In der obigen Beschreibung sind keine Wahrscheinlichkeiten enthalten. Der Zweck des ursprünglichen Geschäfts mit neuronalen Netzen ist die Funktionsanpassung .

Das "tiefe" in Deep Learning steht für das Vorhandensein vieler innerer Schichten in den betrachteten neuronalen Netzen.

{(xi,yi)Rp×Rk:i=1,,n}

i=1nyiGθ(xi)2,
θxGθ^(x)θ^wie eine Strafe für die Zielfunktion oder die Verwendung von Ausfall während des Trainings. Geoffrey Hinton (auch bekannt als Deep Learning Godfather) und Mitarbeiter haben viele dieser Dinge erfunden. Erfolgsgeschichten von Deep Learning gibt es überall.

Lx,y(θ,σ2)σnexp(12σ2i=1nyiGθ(xi)2),
π(θ,σ2)exp(12σ02=1Li=1N((bi())2+j=1N1(wij())2))×π(σ2).

σ02

Bayesian Deep Learning steht vor der schwierigen Aufgabe, Proben aus der entsprechenden posterioren Verteilung zu entnehmen. Nachdem dies erreicht ist, werden Vorhersagen auf natürliche Weise mit der posterioren Vorhersageverteilung getroffen , und die mit diesen Vorhersagen verbundenen Unsicherheiten werden vollständig quantifiziert. Das Allerheiligste an Bayesian Deep Learning ist der Aufbau einer effizienten und skalierbaren Lösung. Bei dieser Suche wurden viele Berechnungsmethoden verwendet: Metropolis-Hastings- und Gibbs-Abtastung , Hamiltonian Monte Carlo und in jüngerer Zeit Variational Inference .

In den NIPS-Konferenzvideos finden Sie einige Erfolgsgeschichten: http://bayesiandeeplearning.org/

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.