Künstliche neuronale Netze (ANNs) sind eine breite Klasse von Rechenmodellen, die lose auf biologischen neuronalen Netzen basieren. Sie umfassen Feedforward-NNs (einschließlich "tiefer" NNs), Faltungs-NNs, wiederkehrende NNs usw.
Wenn ich ein Convolutional Neural Network (CNN) mit etwa 1.000.000 Parametern habe, wie viele Trainingsdaten werden benötigt (vorausgesetzt, ich mache einen stochastischen Gradientenabstieg)? Gibt es eine Faustregel? Zusätzliche Hinweise: Wenn ich einen stochastischen Gradientenabstieg durchgeführt habe (z. B. 64 Patches für 1 Iteration), kann die Genauigkeit des Klassifikators nach ~ …
Ich habe Q-Learning implementiert, wie in http://web.cs.swarthmore.edu/~meeden/cs81/s12/papers/MarkStevePaper.pdf Um ca. F (S, A) Ich verwende eine neuronale Netzwerkstruktur wie die folgende: Aktivierung Sigmoid Eingänge, Anzahl der Eingänge + 1 für Aktionsneuronen (alle Eingänge skaliert 0-1) Ausgänge, einzelner Ausgang. Q-Wert N Anzahl der M ausgeblendeten Ebenen. Explorationsmethode zufällig 0 <rand () <propExplore …
Ich habe an anderer Stelle gelesen, dass die Auswahl der Aktivierungsfunktion für versteckte Schichten in einem NN auf den eigenen Bedürfnissen basieren sollte. Wenn Sie also Werte im Bereich von -1 bis 1 benötigen , verwenden Sie tanh und Sigmoid für den Bereich von 0 bis 1. Meine Frage ist, …
Ich verwende das nnet-Paket in R, um zu versuchen, eine ANN zu erstellen, um die Immobilienpreise für Eigentumswohnungen vorherzusagen (persönliches Projekt). Ich bin neu in diesem Bereich und habe keinen mathematischen Hintergrund. Ich habe Eingabevariablen, die sowohl binär als auch stetig sind. Zum Beispiel wurden einige Binärvariablen, die ursprünglich Ja …
Ich versuche zu verstehen, wie Boltzmann-Maschinen funktionieren, bin mir aber nicht sicher, wie Gewichte gelernt werden, und habe keine eindeutige Beschreibung gefunden. Ist das Folgende richtig? (Auch Hinweise auf gute Boltzmann-Maschinenerklärungen wären toll.) Wir haben eine Reihe von sichtbaren Einheiten (z. B. entsprechend schwarz / weißen Pixeln in einem Bild) …
Es scheint eine Menge Verwirrung im Vergleich zwischen der Verwendung von glmnetinside caretzur Suche nach einem optimalen Lambda und der Verwendung cv.glmnetderselben Aufgabe zu geben. Viele Fragen wurden gestellt, zB: Klassifizierungsmodell train.glmnet vs. cv.glmnet? Was ist der richtige Weg, um glmnet mit caret zu verwenden? Quervalidierung von "glmnet" mit "caret" …
Frage: Ist es möglich, eine NN zu trainieren, um zwischen ungeraden und geraden Zahlen zu unterscheiden, indem nur die Zahlen selbst als Eingabe verwendet werden? Ich habe folgenden Datensatz: Number Target 1 0 2 1 3 0 4 1 5 0 6 1 ... ... 99 0 100 1 Ich …
Nach einer bereits beantworteten Frage ( Auslesen der Wichtigkeit von Einschicht-Feed-Forward- Netzen) suche ich nach Rückschlüssen auf die Relevanz von Eingaben in neuronalen Netzen. Angesichts eines tiefen Netzes, in dem die Rekonstruktion der Eingangsbedeutung durch Rückwärtsdurchlaufen der Schichten vom interessierenden Ausgangsknoten schwierig oder zeitaufwendig sein kann, habe ich mich gefragt, …
Beim Mini-Batch-Training eines neuronalen Netzwerks habe ich gehört, dass es eine wichtige Praxis ist, die Trainingsdaten vor jeder Epoche zu mischen. Kann jemand erklären, warum das Mischen in jeder Epoche hilft? In der Google-Suche habe ich die folgenden Antworten gefunden: Es hilft dem Training, sich schnell anzunähern Es verhindert jegliche …
Ich habe über den Adam-Optimierer für Deep Learning gelesen und bin in dem neuen Buch Deep Learning von Begnio, Goodfellow und Courtville auf folgenden Satz gestoßen: Adam schließt Vorspannungskorrekturen an den Schätzungen sowohl der Momente erster Ordnung (dem Impulsausdruck) als auch der (nicht zentrierten) Momente zweiter Ordnung ein, um ihre …
Gibt es gute Gründe, Binärwerte (0/1) gegenüber diskreten oder kontinuierlichen normalisierten Werten, z. B. (1; 3), als Eingänge für ein Feedforward-Netzwerk für alle Eingangsknoten (mit oder ohne Backpropagation) zu bevorzugen ? Natürlich spreche ich nur von Eingaben, die in beide Formen umgewandelt werden könnten. Wenn Sie beispielsweise eine Variable haben, …
Ich habe das FaceNet- Papier gelesen und im dritten Absatz der Einleitung heißt es: Frühere Gesichtserkennungsansätze, die auf tiefen Netzwerken basieren, verwenden eine Klassifizierungsschicht, die über einen Satz bekannter Gesichtsidentitäten trainiert wurde, und verwenden dann eine Zwischenengpassschicht als Darstellung, um die Erkennung über den im Training verwendeten Satz von Identitäten …
Ich versuche die berühmte Zeitung "Atari spielen mit Deep Reinforcement Learning" ( pdf ) zu verstehen . Mir ist der Unterschied zwischen einer Epoche und einer Episode unklar . In Algorithmus befindet sich die äußere Schleife über Episoden , während in Abbildung 2 die x-Achse als Epoche bezeichnet ist . …
Tensorflow enthält ein Beispiel-Tutorial zur Klassifizierung von CIFAR-10 . Im Tutorial wird der durchschnittliche Kreuzentropieverlust über die Charge minimiert. def loss(logits, labels): """Add L2Loss to all the trainable variables. Add summary for for "Loss" and "Loss/avg". Args: logits: Logits from inference(). labels: Labels from distorted_inputs or inputs(). 1-D tensor of …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.