Künstliche neuronale Netze (ANNs) sind eine breite Klasse von Rechenmodellen, die lose auf biologischen neuronalen Netzen basieren. Sie umfassen Feedforward-NNs (einschließlich "tiefer" NNs), Faltungs-NNs, wiederkehrende NNs usw.
Sparse Coding ist definiert als Lernen eines überkompletten Satzes von Basisvektoren, um Eingangsvektoren darzustellen (<- warum wollen wir das?). Was sind die Unterschiede zwischen Sparse Coding und Autoencoder? Wann werden wir Sparse Coding und Autoencoder verwenden?
Ich habe ein paar Artikel gelesen, in denen die Vor- und Nachteile der einzelnen Methoden erörtert wurden. Einige argumentieren, dass GA keine Verbesserung bei der Suche nach der optimalen Lösung bringt, während andere zeigen, dass sie effektiver ist. Es scheint, dass GA in der Literatur im Allgemeinen bevorzugt wird (obwohl …
Sie scheinen alle Zufallsvariablen durch die Knoten und (in) Abhängigkeit über die (möglicherweise gerichteten) Kanten darzustellen. Mich interessiert vor allem die Sichtweise eines Bayesianers.
Hat jemand Literatur über Pre-Training in Deep Convolutional Neural Network gesehen? Ich habe nur unbeaufsichtigtes Pre-Training in Autoencoder oder eingeschränkten Boltzman-Maschinen gesehen.
Ich bin neu in der Modellierung mit neuronalen Netzwerken, aber es ist mir gelungen, ein neuronales Netzwerk mit allen verfügbaren Datenpunkten einzurichten, das gut zu den beobachteten Daten passt. Das neuronale Netzwerk wurde in R mit dem nnet-Paket erstellt: require(nnet) ##33.8 is the highest value mynnet.fit <- nnet(DOC/33.80 ~ ., …
Ich habe einen Streaming-Datensatz, Beispiele sind einzeln verfügbar. Ich müsste sie in mehreren Klassen klassifizieren. Sobald ich dem Lernprozess ein Trainingsbeispiel gegeben habe, muss ich das Beispiel verwerfen. Gleichzeitig verwende ich auch das neueste Modell, um Vorhersagen für unbeschriftete Daten durchzuführen. Meines Wissens ist ein neuronales Netzwerk in der Lage, …
In Andrew Ngs Kurs über Neuronale Netze und tiefes Lernen über Coursera sagt er, dass die Verwendung von fast immer der Verwendung von vorzuziehen ist .tanhtanhtanhsigmoidsigmoidsigmoid Der Grund, den er angibt, ist, dass die Ausgaben mit center um 0 statt mit 's 0,5 erfolgen, und dies "erleichtert das Lernen für …
Ich habe auf https://en.wikipedia.org/wiki/Generative_adversarial_networks gelesen : [Generative Adversarial Networks] wurden 2014 von Ian Goodfellow et al. Eingeführt. aber Jürgen Schmidhuber Ansprüche ähnliche Arbeiten früher in dieser Richtung durchgeführt haben ( zum Beispiel gibt es einige Diskussionen um NIPS 2016 während der generativen kontradiktorischen Netzwerk Tutorial: https://channel9.msdn.com/Events/Neural-Information-Processing-Systems- Konferenz / Neuronale Informationsverarbeitungssystemkonferenz-NIPS-2016 …
Ich bin völlig neu in neuronalen Netzen, aber sehr daran interessiert, sie zu verstehen. Der Einstieg ist jedoch gar nicht so einfach. Könnte jemand ein gutes Buch oder eine andere Art von Ressource empfehlen? Gibt es ein Muss zu lesen? Ich bin für jeden Tipp dankbar.
Computer sind seit langem in der Lage, Schach mit einer "Brute-Force" -Technik zu spielen, bis zu einer bestimmten Tiefe zu suchen und dann die Position zu bewerten. Der AlphaGo-Computer verwendet jedoch nur eine ANN, um die Positionen auszuwerten (er führt meines Wissens keine Tiefensuche durch). Ist es möglich, eine Schachengine …
Ich habe an einem Regressionsproblem gearbeitet, bei dem die Eingabe ein Bild und die Bezeichnung ein kontinuierlicher Wert zwischen 80 und 350 ist. Bei den Bildern handelt es sich um einige Chemikalien, nachdem eine Reaktion stattgefunden hat. Die Farbe, die angezeigt wird, gibt die Konzentration einer anderen Chemikalie an, die …
Ich habe LSTMs für eine Weile studiert. Ich verstehe auf hohem Niveau, wie alles funktioniert. Als ich sie jedoch mit Tensorflow implementieren wollte, bemerkte ich, dass BasicLSTMCell eine Reihe von Einheiten (dh num_units) benötigt. Aus dieser sehr gründlichen Erklärung von LSTMs habe ich herausgefunden, dass eine einzelne LSTM-Einheit eine der …
Intro Hintergrund In einem neuronalen Faltungsnetz haben wir normalerweise eine allgemeine Struktur / einen Fluss, der so aussieht: Eingabebild (dh ein 2D-Vektor x) (Die erste Faltungsschicht (Conv1) beginnt hier ...) Falten Sie eine Reihe von Filtern ( w1) entlang des 2D-Bildes (dh führen Sie die z1 = w1*x + b1Skalarproduktmultiplikationen …
Warum verwenden wir bei neuronalen Netzen gleichgerichtete Lineareinheiten (ReLU)? Wie verbessert das das neuronale Netzwerk? Warum sagen wir, dass ReLU eine Aktivierungsfunktion ist? Funktioniert die Aktivierung von Softmax nicht für neuronale Netze? Ich vermute, dass wir beide verwenden, ReLU und Softmax, wie folgt: Neuron 1 mit Softmax-Ausgabe ----> ReLU auf …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.