Künstliche neuronale Netze (ANNs) sind eine breite Klasse von Rechenmodellen, die lose auf biologischen neuronalen Netzen basieren. Sie umfassen Feedforward-NNs (einschließlich "tiefer" NNs), Faltungs-NNs, wiederkehrende NNs usw.
Wie sollte das Verhältnis von Anzahl der Beobachtungen und Anzahl der Variablen sein? Wie erkennt man eine Überanpassung im neuronalen Netzwerkmodell und wie vermeidet man eine Überanpassung? Wenn ich eine Klassifizierung mit dem neuronalen Netz durchführen möchte, sollten die Klassen die gleiche Häufigkeit haben? Bitte hilf mir.
Ich habe Grundkenntnisse über die Funktionsweise von RNNs (und insbesondere von LSTMs). Ich habe eine bildliche Vorstellung von der Architektur einer LSTM-Einheit, dh einer Zelle und einiger Tore, die den Wertefluss regulieren. Anscheinend habe ich jedoch nicht vollständig verstanden, wie LSTM das Problem des "Verschwindens und Explodierens von Gradienten" löst, …
Ich gehe durch den DeepAI-Kurs der Cousera (Woche 3, Video 1, "Überblick über neuronale Netze") und Andrew Ng erklärt, wie jede Schicht in einem neuronalen Netz nur eine andere logistische Regression darstellt, erklärt aber nicht, wie dies die Sache genauer macht. Wie können Sie in einem 2-Schicht-Netzwerk die logistische Mehrfachberechnung …
Ich habe gerade über künstliche neuronale Netze in Courseras Kurs Maschinelles Lernen gesprochen und möchte gerne mehr über die dahinter stehende Theorie erfahren. Ich finde die Motivation, dass sie die Biologie imitieren, etwas unbefriedigend. Auf der Oberfläche scheint es, dass wir auf jeder Ebene Kovariaten durch eine lineare Kombination ersetzen. …
Ich gehe der Frage nach, die ich zuvor zu RBM gestellt hatte . Ich sehe eine Menge Literatur, die sie beschreibt, aber keine, die tatsächlich von Regression spricht (nicht einmal Klassifizierung mit beschrifteten Daten). Ich habe das Gefühl, dass es nur für unbeschriftete Daten verwendet wird. Gibt es Ressourcen für …
Zum Beispiel möchte man die Hauspreise vorhersagen und über zwei Eingabemerkmale die Länge und Breite des Hauses verfügen. Manchmal schließt man auch 'abgeleitete' Polynomeingabemerkmale ein, wie zum Beispiel Fläche, die Länge * Breite ist. 1) Worum geht es beim Einbeziehen abgeleiteter Features? Sollte ein neuronales Netz während des Trainings nicht …
Diese Frage hat hier bereits Antworten : Backpropagation-Algorithmus (2 Antworten) Geschlossen im letzten Monat . Was ist der Backpropagation-Algorithmus und wie funktioniert er?
Insbesondere im Zusammenhang mit Kaggle-Wettbewerben habe ich festgestellt, dass es bei der Leistung des Modells ausschließlich um die Auswahl / Entwicklung von Funktionen geht. Ich kann zwar vollständig verstehen, warum dies bei den konventionelleren / altmodischen ML-Algorithmen der Fall ist, sehe aber nicht, warum dies bei Verwendung tiefer neuronaler Netze …
Ich versuche, ein neuronales Netzwerk für die Klassifizierung zu trainieren, aber die Beschriftungen, die ich habe, sind ziemlich laut (ungefähr 30% der Beschriftungen sind falsch). Der Kreuzentropieverlust funktioniert zwar, aber ich habe mich gefragt, ob es in diesem Fall Alternativen gibt, die effektiver sind. oder ist der Kreuzentropieverlust das Optimum? …
Ist es möglich, negative Gewichte (nach genügend Epochen) für tiefe Faltungs-Neuronale Netze zu haben, wenn wir ReLU für alle Aktivierungsschichten verwenden?
Geschlossen. Diese Frage ist nicht zum Thema . Derzeit werden keine Antworten akzeptiert. Möchten Sie diese Frage verbessern? Aktualisieren Sie die Frage so dass es beim Thema für Kreuz Validated. Geschlossen vor 9 Monaten . Ich weiß, dass es viele Bibliotheken für maschinelles Lernen und tiefes Lernen gibt, wie Kaffee, …
RNNs eignen sich bemerkenswert gut zur Erfassung der Zeitabhängigkeit sequentieller Daten. Was passiert jedoch, wenn die Sequenzelemente nicht zeitlich gleich verteilt sind? Beispielsweise erfolgt die erste Eingabe in die LSTM-Zelle am Montag, dann keine Daten von Dienstag bis Donnerstag und schließlich neue Eingaben für jeden Freitag, Samstag, Sonntag. Eine Möglichkeit …
Der Batch-Normalisierung wurden erhebliche Leistungsverbesserungen in tiefen neuronalen Netzen zugeschrieben. Zahlreiches Material im Internet zeigt, wie es von Aktivierung zu Aktivierung umgesetzt werden kann. Ich habe Backprop bereits mithilfe der Matrixalgebra implementiert, und da ich in Hochsprachen arbeite (während ich mich auf Rcpp(und möglicherweise auch auf GPUs) für eine dichte …
Der jüngste Fortschritt bei neuronalen Netzen wird durch eine Reihe neuer Architekturen zusammengefasst, die sich hauptsächlich durch ihre wachsende Designkomplexität auszeichnen. Von LeNet5 (1994) über AlexNet (2012) bis zu Overfeat (2013) und GoogleLeNet / Inception (2014) und so weiter ... Gibt es einen Versuch, die Maschine in Abhängigkeit von den …
Angenommen, ich verwende ein RNN / LSTM, um eine Stimmungsanalyse durchzuführen, bei der es sich um einen 1: 1-Ansatz handelt (siehe diesen Blog ). Das Netzwerk wird durch eine verkürzte Backpropagation Through Time (BPTT) trainiert, bei der das Netzwerk wie gewohnt nur für 30 letzte Schritte abgewickelt wird. In meinem …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.