Deep Learning-Grundlagen


22

Ich suche nach einem Artikel, der die Grundlagen des tiefen Lernens beschreibt. Idealerweise wie der Andrew Ng Kurs für tiefes Lernen. Weißt du, wo ich das finden kann?


5
-1: Wo hast du schon gesucht? Hast du was gefunden?
Spacedman

4
Warum ist das verärgert? Dabei spielt es keine jede Anstrengung zeigen auch immer und es ist ein von einem Betrogene duplizieren
runDOSrun

Link zum Duplizieren ist eine 404-Fehlerseite.
Danijel

Antworten:


40

Dieser Link enthält eine erstaunliche Menge an Deep-Learning-Literatur. Hier zusammengefasst (in der Reihenfolge, in der Anfänger am besten vorgehen sollten) - HINWEIS: Alle diese Ressourcen verwenden hauptsächlich Python.

1) Zunächst sind Grundkenntnisse des maschinellen Lernens erforderlich. Ich fand, dass das Lernen von Caltech aus Daten ideal für alle im Internet verfügbaren Kurse zum maschinellen Lernen ist.

Andrew Ngs Coursera-Kurs ist auch ziemlich gut.

2) Für neuronale Netze erklärt es niemand besser als Dr.Patrick Winston . Die Aufgaben sollten zum besseren Verständnis ausprobiert werden. Sie sind in Python.

3) Für ein besseres Verständnis der neuronalen Netze sollte der Kurs von Michael Nielsen durchgeführt werden (wie von Alexey vorgeschlagen). Es ist ziemlich einfach, aber es funktioniert.

4) Für tiefe neuronale Netze und deren schnellere Implementierung auf GPUs stehen mehrere Frameworks zur Verfügung, z. B. Theano , Caffe , Pybrain , Torch usw. Von diesen bietet Theano eine bessere Funktionalität auf niedriger Ebene, mit der der Benutzer benutzerdefinierte NNs erstellen kann. Da es sich um eine Python-Bibliothek handelt, ist es ein großes Plus, Numpy, Scikit-Learn, Matplotlib und Scipy verwenden zu können. Das Deep-Learning-Tutorial von Lisa Lab sollte zum besseren Verständnis von theano ausprobiert werden.

5) Befolgen Sie für Faltungsneurale Netze das Tutorial von andrej karpathy .

6) Für unbeaufsichtigtes Lernen folgen Sie hier und hier .

7) Für eine Schnittmenge von Deep Learning und NLP folgen Sie der Klasse von Richard Socher .

8) Für LSTMs lesen Sie Hochreiter, S., & Schmidhuber, J. (1997). Langes Kurzzeitgedächtnis. Neuronale Berechnung, 9 (8), 1735-1780 und Graves, Alex. Überwachte Sequenzmarkierung mit wiederkehrenden neuronalen Netzen. Vol. 385. Springer, 2012 .

Hier ist der Theano-Code von LSTM .



13

Neuronale Netze und Deep Learning von Michael Nielsen. Das Buch ist noch in Arbeit, sieht aber recht interessant und vielversprechend aus. Und es ist kostenlos! Hier ist der Link: http://neuralnetworksanddeeplearning.com/

Bisher gibt es nur 5 Kapitel, von denen die meisten über normale neuronale Netze sprechen, aber es lohnt sich trotzdem, einen Blick darauf zu werfen.

Update: Das Buch ist fertig!


10


2

Um die Herleitung des Back-Propagation-Algorithmus zu verstehen, empfehle ich Ryan Harris YouTube-Video, das weniger einschüchternd ist. Möglicherweise finden Sie auch ein zweites Video.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.