Als «neural-network» getaggte Fragen

Netzwerkstruktur inspiriert von vereinfachten Modellen biologischer Neuronen (Gehirnzellen). Neuronale Netze werden durch "überwachte und unbeaufsichtigte Techniken" zum "Lernen" trainiert und können verwendet werden, um Optimierungsprobleme, Approximationsprobleme, Klassifizierungsmuster und Kombinationen davon zu lösen.

5
Was macht tf.nn.conv2d im Tensorflow?
Ich habe mir tf.nn.conv2d hier die Dokumente von Tensorflow angesehen . Aber ich kann nicht verstehen, was es tut oder was es zu erreichen versucht. Es steht auf den Dokumenten, # 1: Glättet den Filter zu einer 2-D-Matrix mit Form [filter_height * filter_width * in_channels, output_channels]. Was macht das nun? …

4
Tensorflow schreitet Argument
Ich versuche , das zu verstehen , Fortschritte Argument in tf.nn.avg_pool, tf.nn.max_pool, tf.nn.conv2d. Die Dokumentation sagt wiederholt Schritte: Eine Liste von Ints mit einer Länge> = 4. Der Schritt des Schiebefensters für jede Dimension des Eingangstensors. Meine Fragen sind: Was bedeutet jede der 4+ Ganzzahlen? Warum müssen sie für Convnets …

9
Bestellung von Chargennormalisierung und Ausfall?
Die ursprüngliche Frage bezog sich speziell auf TensorFlow-Implementierungen. Die Antworten beziehen sich jedoch auf Implementierungen im Allgemeinen. Diese allgemeine Antwort ist auch die richtige Antwort für TensorFlow. Muss ich mir bei der Verwendung von Batch-Normalisierung und Dropout in TensorFlow (insbesondere unter Verwendung der Contrib.Layer) Sorgen um die Bestellung machen? Es …

4
Pytorch, was sind die Gradientenargumente?
Ich lese die Dokumentation von PyTorch durch und habe ein Beispiel gefunden, in dem sie schreiben gradients = torch.FloatTensor([0.1, 1.0, 0.0001]) y.backward(gradients) print(x.grad) Dabei war x eine Anfangsvariable, aus der y konstruiert wurde (ein 3-Vektor). Die Frage ist, was sind die Argumente 0.1, 1.0 und 0.0001 des Gradiententensors? Die Dokumentation …

3
Was ist der Unterschied zwischen sparse_softmax_cross_entropy_with_logits und softmax_cross_entropy_with_logits?
Ich bin kürzlich auf tf.nn.sparse_softmax_cross_entropy_with_logits gestoßen und kann nicht herausfinden, was der Unterschied zu tf.nn.softmax_cross_entropy_with_logits ist . Der einzige Unterschied ist, dass Trainingsvektoren ysein one-hot kodierten bei der Verwendung sparse_softmax_cross_entropy_with_logits? Beim Lesen der API konnte ich keinen anderen Unterschied feststellen als softmax_cross_entropy_with_logits. Aber warum brauchen wir dann die zusätzliche Funktion? …


5
Welche Rolle spielt „Abflachen“ in Keras?
Ich versuche die Rolle der FlattenFunktion in Keras zu verstehen . Unten ist mein Code, der ein einfaches zweischichtiges Netzwerk ist. Es nimmt zweidimensionale Formdaten (3, 2) auf und gibt eindimensionale Formdaten (1, 4) aus: model = Sequential() model.add(Dense(16, input_shape=(3, 2))) model.add(Activation('relu')) model.add(Flatten()) model.add(Dense(4)) model.compile(loss='mean_squared_error', optimizer='SGD') x = np.array([[[1, 2], …


8
Warum sollten Gewichte neuronaler Netze mit Zufallszahlen initialisiert werden?
Ich versuche, ein neuronales Netzwerk von Grund auf neu aufzubauen. In der gesamten KI-Literatur besteht Konsens darüber, dass Gewichte mit Zufallszahlen initialisiert werden sollten, damit das Netzwerk schneller konvergiert. Aber warum werden Anfangsgewichte neuronaler Netze als Zufallszahlen initialisiert? Ich hatte irgendwo gelesen, dass dies getan wird, um "die Symmetrie zu …

4
Multi-Layer-Perceptron (MLP) -Architektur: Kriterien für die Auswahl der Anzahl der verborgenen Schichten und der Größe der verborgenen Schicht?
Wenn wir 10 Eigenvektoren haben, können wir 10 neuronale Knoten in der Eingabeschicht haben. Wenn wir 5 Ausgabeklassen haben, können wir 5 Knoten in der Ausgabeschicht haben. Aber was sind die Kriterien für die Auswahl der Anzahl der verborgenen Schichten in einem MLP und wie viele neuronale Knoten in 1 …




10
Wie füge ich Regularisierungen in TensorFlow hinzu?
Ich habe in vielen verfügbaren neuronalen Netzwerkcodes, die mit TensorFlow implementiert wurden, festgestellt, dass Regularisierungsterme häufig durch manuelles Hinzufügen eines zusätzlichen Terms zum Verlustwert implementiert werden. Meine Fragen sind: Gibt es eine elegantere oder empfohlene Art der Regularisierung als die manuelle? Ich finde auch, dass get_variabledas ein Argument hat regularizer. …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.