Als «neural-networks» getaggte Fragen

Künstliche neuronale Netze (ANNs) sind eine breite Klasse von Rechenmodellen, die lose auf biologischen neuronalen Netzen basieren. Sie umfassen Feedforward-NNs (einschließlich "tiefer" NNs), Faltungs-NNs, wiederkehrende NNs usw.

1
Dauern neuronale Netze normalerweise eine Weile, um während des Trainings „einzusteigen“?
Ich versuche, ein tiefes neuronales Netzwerk für die Klassifizierung mithilfe der Rückausbreitung zu trainieren. Insbesondere verwende ich ein Faltungs-Neuronales Netzwerk zur Bildklassifizierung unter Verwendung der Tensor Flow-Bibliothek. Während des Trainings habe ich ein seltsames Verhalten und frage mich nur, ob dies typisch ist oder ob ich möglicherweise etwas falsch mache. …

1
Einschichtiges NeuralNetwork mit ReLU-Aktivierung gleich SVM?
Angenommen, ich habe ein einfaches einschichtiges neuronales Netzwerk mit n Eingängen und einem einzelnen Ausgang (binäre Klassifizierungsaufgabe). Wenn ich die Aktivierungsfunktion im Ausgabeknoten als Sigmoidfunktion einstelle, ist das Ergebnis ein Klassifikator für die logistische Regression. Wenn ich in demselben Szenario die Ausgangsaktivierung auf ReLU (gleichgerichtete Lineareinheit) ändere, ist die resultierende …

1
Wie kann man ein einfaches Perzeptron kernelisieren?
Klassifizierungsprobleme mit nichtlinearen Grenzen können nicht mit einem einfachen Perzeptron gelöst werden . Der folgende R-Code dient nur zur Veranschaulichung und basiert auf diesem Beispiel in Python. nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X <- matrix(c(-3,1, -2,1, -1,1, 0,1, 1,1, 2,1, 3,1), ncol=2, …

2
Entropieübergreifende Kostenfunktion im neuronalen Netz
Ich betrachte die entropieübergreifende Kostenfunktion in diesem Tutorial : C=−1n∑x[ylna+(1−y)ln(1−a)]C=−1n∑x[yln⁡a+(1−y)ln⁡(1−a)]C = -\frac{1}{n} \sum_x [y \ln a+(1−y)\ln(1−a)] Worüber summieren wir genau? Es ist natürlich über , aber und ändern sich nicht mit . Alle sind Eingaben in die . wird sogar im Absatz über der Gleichung als Funktion der Summe aller …


3
Kann ein neuronales Netzwerk eine Funktion und ihre funktionale Ableitung lernen?
Ich verstehe, dass neuronale Netze (NNs) unter bestimmten Voraussetzungen (sowohl für das Netz als auch für die zu approximierende Funktion) als universelle Approximatoren für beide Funktionen und ihre Ableitungen angesehen werden können. Tatsächlich habe ich eine Reihe von Tests mit einfachen, aber nicht trivialen Funktionen (z. B. Polynomen) durchgeführt, und …

2
Was ist Pretraining und wie trainiert man ein neuronales Netzwerk?
Ich verstehe, dass Pretraining verwendet wird, um einige Probleme beim konventionellen Training zu vermeiden. Wenn ich Backpropagation mit beispielsweise einem Autoencoder verwende, weiß ich, dass ich auf Zeitprobleme stoßen werde, weil die Backpropagation langsam ist und ich auch in lokalen Optima stecken bleiben und bestimmte Funktionen nicht lernen kann. Was …

1
Wie kann man die Anzahl der Faltungsoperatoren in CNN bestimmen?
Bei Computer-Vision-Aufgaben wie der Objektklassifizierung mit Convolutional Neural Networks (CNN) bietet das Netzwerk eine ansprechende Leistung. Ich bin mir jedoch nicht sicher, wie ich die Parameter in Faltungsschichten einrichten soll. Beispielsweise kann bei einem Graustufenbild ( 480x480) die erste Faltungsschicht einen Faltungsoperator wie verwenden 11x11x10, wobei die Zahl 10 die …


1
Vergleich von CPH, beschleunigtem Ausfallzeitmodell oder neuronalen Netzen zur Überlebensanalyse
Ich bin neu in der Überlebensanalyse und habe kürzlich erfahren, dass es verschiedene Möglichkeiten gibt, dies bei einem bestimmten Ziel zu tun. Ich interessiere mich für die tatsächliche Umsetzung und Angemessenheit dieser Methoden. Mir wurden die traditionellen Cox-Proportional-Hazards- , Accelerated-Failure-Time-Modelle und neuronalen Netze (Multilayer-Perzeptron) als Methoden vorgestellt, um das Überleben …

4
Konvergenz der Gewichte neuronaler Netze
Ich kam zu einer Situation, in der die Gewichte meines neuronalen Netzwerks auch nach 500 Iterationen nicht konvergieren. Mein neuronales Netzwerk enthält 1 Eingangsschicht, 1 versteckte Schicht und 1 Ausgangsschicht. Sie sind ungefähr 230 Knoten in der Eingabeebene, 9 Knoten in der verborgenen Ebene und 1 Ausgabeknoten in der Ausgabeschicht. …

2
Erwarteter Wert einer Gaußschen Zufallsvariablen, die mit einer logistischen Funktion transformiert wurde
Sowohl die logistische Funktion als auch die Standardabweichung werden normalerweise als . Ich werde und s für die Standardabweichung verwenden.σσ\sigmaσ(x)=1/(1+exp(−x))σ(x)=1/(1+exp⁡(−x))\sigma(x) = 1/(1+\exp(-x))sss Ich habe eine logistische Neuron mit einem zufälligen Eingang , dessen Mittelwert und Standardabweichung ich weiß. Ich hoffe, dass der Unterschied zum Mittelwert durch ein Gaußsches Rauschen gut …

2
Zweck des Dirichlet-Rauschens im AlphaZero-Papier
In den Artikeln AlphaGo Zero und AlphaZero von DeepMind beschreiben sie das Hinzufügen von Dirichlet- Rauschen zu den vorherigen Wahrscheinlichkeiten von Aktionen vom Wurzelknoten (Board-Status) in der Monte-Carlo-Baumsuche: Weitere Explorations wird erreicht durch Zugabe von Dirichlet Rauschen zu den vorherigen Wahrscheinlichkeiten in dem Wurzelknoten , insbesondere , wo und ; …

2
WaveNet ist nicht wirklich eine erweiterte Faltung, oder?
In dem kürzlich erschienenen WaveNet-Artikel beziehen sich die Autoren auf ihr Modell mit gestapelten Schichten erweiterter Windungen. Sie erstellen auch die folgenden Diagramme, in denen der Unterschied zwischen "regulären" und erweiterten Faltungen erläutert wird. Die regulären Faltungen sehen wie folgt aus: Dies ist eine Faltung mit einer Filtergröße von 2 …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.