Als «conv-neural-network» getaggte Fragen

Ein Faltungs-Neuronales Netzwerk (CNN oder ConvNet) ist eine Klasse von tiefen, vorwärtsgerichteten künstlichen Neuronalen Netzen, die erfolgreich zur Analyse visueller Bilder eingesetzt wurden. Es fällt unter das [Deep-Learning] -Tag.

11
Warum bieten binäre Kreuzentropie und kategoriale Kreuzentropie unterschiedliche Leistungen für dasselbe Problem?
Ich versuche, ein CNN zu trainieren, um Text nach Themen zu kategorisieren. Wenn ich binäre Kreuzentropie verwende, erhalte ich eine Genauigkeit von ~ 80%, bei kategorialer Kreuzentropie eine Genauigkeit von ~ 50%. Ich verstehe nicht, warum das so ist. Es ist ein Problem mit mehreren Klassen. Bedeutet das nicht, dass …



4
Tensorflow schreitet Argument
Ich versuche , das zu verstehen , Fortschritte Argument in tf.nn.avg_pool, tf.nn.max_pool, tf.nn.conv2d. Die Dokumentation sagt wiederholt Schritte: Eine Liste von Ints mit einer Länge> = 4. Der Schritt des Schiebefensters für jede Dimension des Eingangstensors. Meine Fragen sind: Was bedeutet jede der 4+ Ganzzahlen? Warum müssen sie für Convnets …

9
Bestellung von Chargennormalisierung und Ausfall?
Die ursprüngliche Frage bezog sich speziell auf TensorFlow-Implementierungen. Die Antworten beziehen sich jedoch auf Implementierungen im Allgemeinen. Diese allgemeine Antwort ist auch die richtige Antwort für TensorFlow. Muss ich mir bei der Verwendung von Batch-Normalisierung und Dropout in TensorFlow (insbesondere unter Verwendung der Contrib.Layer) Sorgen um die Bestellung machen? Es …


7
Wie kann man Keras sagen, dass sie das Training basierend auf dem Verlustwert beenden sollen?
Derzeit verwende ich den folgenden Code: callbacks = [ EarlyStopping(monitor='val_loss', patience=2, verbose=0), ModelCheckpoint(kfold_weights_path, monitor='val_loss', save_best_only=True, verbose=0), ] model.fit(X_train.astype('float32'), Y_train, batch_size=batch_size, nb_epoch=nb_epoch, shuffle=True, verbose=1, validation_data=(X_valid, Y_valid), callbacks=callbacks) Es fordert Keras auf, das Training abzubrechen, wenn sich der Verlust in zwei Epochen nicht verbessert hat. Aber ich möchte das Training beenden, nachdem …

4
Chargennormalisierung im Faltungs-Neuronalen Netz
Ich bin ein Neuling in Faltungs-Neuronalen Netzen und habe nur eine Vorstellung von Feature-Maps und wie Faltung von Bildern durchgeführt wird, um Features zu extrahieren. Ich würde mich freuen, einige Details zur Anwendung der Chargennormalisierung in CNN zu erfahren. Ich habe dieses Papier https://arxiv.org/pdf/1502.03167v3.pdf gelesen und konnte den BN-Algorithmus verstehen, …


1
ND Convolution Backprogation
Für meine Ausbildung versuche ich, eine N-dimensionale Faltungsschicht in einem Faltungsnetzwerk zu implementieren. Ich möchte eine Backpropagation-Funktion implementieren. Ich bin mir jedoch nicht sicher, wie ich dies am effizientesten tun kann. Zur Zeit benutze ich signal.fftconvolve: Falten Sie im Vorwärtsschritt den Filter und den Kernel vorwärts über alle Filter. Falten …

2
Der Verlust nimmt bei Pytorch CNN nicht ab
Ich mache ein CNN mit Pytorch für eine Aufgabe, aber es wird nicht lernen und die Genauigkeit verbessern. Ich habe eine Version erstellt, die mit dem MNIST-Datensatz arbeitet, damit ich sie hier veröffentlichen kann. Ich suche nur nach einer Antwort, warum es nicht funktioniert. Die Architektur ist in Ordnung, ich …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.