Künstliche neuronale Netze (ANNs) sind eine breite Klasse von Rechenmodellen, die lose auf biologischen neuronalen Netzen basieren. Sie umfassen Feedforward-NNs (einschließlich "tiefer" NNs), Faltungs-NNs, wiederkehrende NNs usw.
Ich versuche, die Entscheidungsgrenze eines Perzeptron-Algorithmus zu zeichnen, und bin über einige Dinge wirklich verwirrt. Meine Eingabeinstanzen haben die Form , im Grunde eine 2D-Eingabeinstanz ( x 1 und x 2 ) und einen Binärklassenzielwert ( y ) [1 oder 0].[ ( x1, x2) , y]][(x1,x2),y][(x_{1},x_{2}), y]x1x1x_{1}x2x2x_{2}yyy Mein Gewichtsvektor hat …
Wenn ich eine feste nicht wiederkehrende (DAG) Topologie (fester Satz von Knoten und Kanten, aber der Lernalgorithmus kann das Gewicht an den Kanten variieren) von Sigmoidneuronen mit Eingangsneuronen habe, die nur Zeichenfolgen in als Eingabe und führt zu einer Ausgabe (die einen realen Wert ausgibt, den wir auf 1 oder …
Ich verwende das Neuralnetz in R, um ein NN mit 14 Eingängen und einem Ausgang zu erstellen. Ich baue / trainiere das Netzwerk mehrmals mit denselben Eingabetrainingsdaten und derselben Netzwerkarchitektur / -einstellungen. Nachdem jedes Netzwerk erstellt wurde, verwende ich es in einem eigenständigen Satz von Testdaten, um einige vorhergesagte Werte …
Ich habe ein ziemlich populäres Papier " ERKLÄREN UND HARNESSEN VON ADVERSARIALEN BEISPIELEN " implementiert und in dem Papier eine kontroverse Zielfunktion trainiert J '' (θ) = αJ (θ) + (1 - α) J '(θ). Es behandelt α als Hyperparameter. α kann 0,1, 0,2, 0,3 usw. sein. Unabhängig von diesem …
Basierend auf dem, was ich gelernt habe, verwenden wir mehrere Filter in einer Conv-Schicht eines CNN, um verschiedene Feature-Detektoren zu lernen. Aber da diese Filter ähnlich angewendet werden (dh verschoben und mit Regionen der Eingabe multipliziert werden), würden sie dann nicht einfach während des Trainings dieselben Parameter lernen? Daher wäre …
Ich glaube nicht, dass es eine Antwort auf alle Deep-Learning-Modelle geben kann. Welche der Deep-Learning-Modelle sind parametrisch und welche nicht parametrisch und warum?
Geschlossen. Diese Frage ist nicht zum Thema . Derzeit werden keine Antworten akzeptiert. Möchten Sie diese Frage verbessern? Aktualisieren Sie die Frage so dass es beim Thema für Kreuz Validated. Geschlossen im vergangenen Jahr . Das Training nach 15 Epochen mit dem CIFAR-10-Datensatz scheint den Validierungsverlust nicht mehr zu verringern …
Nachdem ich mir diese Frage angesehen habe: Beim Versuch, die lineare Regression mit Keras zu emulieren , habe ich versucht, mein eigenes Beispiel nur zu Studienzwecken zu erstellen und meine Intuition zu entwickeln. Ich habe einen einfachen Datensatz heruntergeladen und eine Spalte verwendet, um eine andere vorherzusagen. Die Daten sehen …
Beseitigt die Hauptkomponentenanalyse (PCA) das Rauschen im Datensatz? Wenn PCA das Rauschen im Datensatz nicht beseitigt, was macht PCA dann tatsächlich mit dem Datensatz? Kann mir jemand in dieser Angelegenheit helfen?
Ich beginne mit tiefem Lernen und habe eine Frage, deren Antwort ich nicht finden konnte, vielleicht habe ich nicht richtig gesucht. Ich habe diese Antwort gesehen , aber es ist immer noch nicht klar, was der Gewichtsverlust ist und wie er mit der Verlustfunktion zusammenhängt.
Ich arbeite an einem Faltungsnetzwerk für die Bilderkennung und habe mich gefragt, ob ich Bilder unterschiedlicher Größe eingeben kann (allerdings nicht sehr unterschiedlich). Zu diesem Projekt: https://github.com/harvardnlp/im2markup Sie sagen: and group images of similar sizes to facilitate batching Selbst nach der Vorverarbeitung haben die Bilder immer noch unterschiedliche Größen, was …
In Bezug auf den Unterschied zwischen neuronalen Netzen und Deep Learning können wir verschiedene Elemente auflisten, z. B. mehr Ebenen, umfangreiche Datenmengen und leistungsstarke Computerhardware, um das Training komplizierter Modelle zu ermöglichen. Gibt es außerdem eine detailliertere Erklärung zum Unterschied zwischen NN und DL?
Gibt es eine Faustregel zwischen der Tiefe eines neuronalen Netzwerks und der Lernrate? Mir ist aufgefallen, dass die Lernrate umso niedriger sein muss, je tiefer das Netzwerk ist. Wenn das richtig ist, warum ist das so?
Während ich im Physikunterricht tatsächlich einige Programmierungen mit Boltzmann-Maschinen durchgeführt habe, bin ich mit deren theoretischer Charakterisierung nicht vertraut. Im Gegensatz dazu kenne ich eine bescheidene Menge über die Theorie der grafischen Modelle (über die ersten Kapitel von Lauritzens Buch Graphical Models ). Frage: Gibt es eine sinnvolle Beziehung zwischen …
Ist es möglich, ein neuronales Netzwerk zu trainieren, um Bilder in einem bestimmten Stil zu zeichnen? (Es nimmt also ein Bild auf und zeichnet es in einem Stil neu, für den es trainiert wurde.) Gibt es eine zugelassene Technologie für so etwas? Ich kenne den DeepArt-Algorithmus. Es ist gut, das …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.