Als «deep-learning» getaggte Fragen

Deep Learning ist ein Bereich des maschinellen Lernens, dessen Ziel es ist, komplexe Funktionen mithilfe spezieller neuronaler Netzwerkarchitekturen zu lernen, die "tief" sind (aus vielen Schichten bestehen). Dieses Tag sollte für Fragen zur Implementierung von Deep-Learning-Architekturen verwendet werden. Allgemeine Fragen zum maschinellen Lernen sollten mit "Maschinelles Lernen" gekennzeichnet sein. Das Einfügen eines Tags für die entsprechende Softwarebibliothek (z. B. "Keras", "Tensorflow", "Pytorch", "Fast.ai" usw.) ist hilfreich.


3
Grundlegendes zu Keras-LSTMs
Ich versuche mein Verständnis von LSTMs in Einklang zu bringen und habe hier in diesem Beitrag von Christopher Olah , der in Keras implementiert wurde, darauf hingewiesen . Ich folge dem Blog von Jason Brownlee für das Keras-Tutorial. Was mich hauptsächlich verwirrt ist, ist: Die Umformung der Datenreihen in [samples, …

15
Was ist der Unterschied zwischen 'SAME' und 'VALID' in tf.nn.max_pool von Tensorflow?
Was ist der Unterschied zwischen ‚SAMT‘ und ‚VALID‘ padding in tf.nn.max_poolder tensorflow? Meiner Meinung nach bedeutet "GÜLTIG", dass es außerhalb der Kanten keine Null-Polsterung gibt, wenn wir den Max-Pool ausführen. Laut einem Leitfaden zur Faltungsarithmetik für tiefes Lernen heißt es, dass der Poolbetreiber keine Polsterung aufweist, dh verwenden Sie einfach …

2
Erklärung der Keras-Eingabe: Eingabeform, Einheiten, Stapelgröße, Dim usw.
Für jede Keras Schicht ( LayerKlasse), erklären kann jemand wie man den Unterschied zwischen verstehen input_shape, units, dimetc.? In der Dokumentation heißt es beispielsweise units, die Ausgabeform einer Ebene anzugeben. Im Bild des neuronalen Netzes unten hidden layer1hat 4 Einheiten. Wird dies direkt auf das unitsAttribut des LayerObjekts übertragen? Oder …


3
Wie man "Verlust" und "Genauigkeit" für ein Modell des maschinellen Lernens interpretiert
Wenn ich mein neuronales Netzwerk mit Theano oder Tensorflow trainiert habe, wird pro Epoche eine Variable namens "Verlust" gemeldet. Wie soll ich diese Variable interpretieren? Ein höherer Verlust ist besser oder schlechter, oder was bedeutet dies für die endgültige Leistung (Genauigkeit) meines neuronalen Netzwerks?


11
Warum bieten binäre Kreuzentropie und kategoriale Kreuzentropie unterschiedliche Leistungen für dasselbe Problem?
Ich versuche, ein CNN zu trainieren, um Text nach Themen zu kategorisieren. Wenn ich binäre Kreuzentropie verwende, erhalte ich eine Genauigkeit von ~ 80%, bei kategorialer Kreuzentropie eine Genauigkeit von ~ 50%. Ich verstehe nicht, warum das so ist. Es ist ein Problem mit mehreren Klassen. Bedeutet das nicht, dass …

8
Was macht die Funktion tf.nn.embedding_lookup?
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) Ich kann die Pflicht dieser Funktion nicht verstehen. Ist es wie eine Nachschlagetabelle? Was bedeutet, die Parameter zurückzugeben, die jeder ID entsprechen (in IDs)? skip-gramWenn wir zum Beispiel im Modell verwenden tf.nn.embedding_lookup(embeddings, train_inputs), findet es dann für jedes train_inputdie entsprechende Einbettung?

10
Keras, wie bekomme ich die Ausgabe jeder Schicht?
Ich habe ein binäres Klassifizierungsmodell mit CNN trainiert und hier ist mein Code model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape)) model.add(Activation('relu')) model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (16, 16, 32) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (8, 8, 64) = (2048) model.add(Flatten()) model.add(Dense(1024)) model.add(Activation('relu')) model.add(Dropout(0.5)) …

12
Warum muss eine nichtlineare Aktivierungsfunktion in einem neuronalen Backpropagation-Netzwerk verwendet werden?
Ich habe einige Dinge über neuronale Netze gelesen und verstehe das allgemeine Prinzip eines einschichtigen neuronalen Netzes. Ich verstehe die Notwendigkeit zusätzlicher Schichten, aber warum werden nichtlineare Aktivierungsfunktionen verwendet? Dieser Frage folgt die folgende: Was ist eine Ableitung der Aktivierungsfunktion, die bei der Backpropagation verwendet wird?


5
Welche Rolle spielt „Abflachen“ in Keras?
Ich versuche die Rolle der FlattenFunktion in Keras zu verstehen . Unten ist mein Code, der ein einfaches zweischichtiges Netzwerk ist. Es nimmt zweidimensionale Formdaten (3, 2) auf und gibt eindimensionale Formdaten (1, 4) aus: model = Sequential() model.add(Dense(16, input_shape=(3, 2))) model.add(Activation('relu')) model.add(Flatten()) model.add(Dense(4)) model.compile(loss='mean_squared_error', optimizer='SGD') x = np.array([[[1, 2], …


4
Multi-Layer-Perceptron (MLP) -Architektur: Kriterien für die Auswahl der Anzahl der verborgenen Schichten und der Größe der verborgenen Schicht?
Wenn wir 10 Eigenvektoren haben, können wir 10 neuronale Knoten in der Eingabeschicht haben. Wenn wir 5 Ausgabeklassen haben, können wir 5 Knoten in der Ausgabeschicht haben. Aber was sind die Kriterien für die Auswahl der Anzahl der verborgenen Schichten in einem MLP und wie viele neuronale Knoten in 1 …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.