Vielleicht eine zu allgemeine Frage, aber kann jemand erklären, was dazu führen würde, dass ein Faltungs-Neuronales Netz auseinander geht?
Besonderheiten:
Ich verwende das iris_training-Modell von Tensorflow mit einigen meiner eigenen Daten und bekomme es immer wieder
FEHLER: Tensorfluss: Modell divergiert mit Verlust = NaN.
Zurück verfolgen...
tensorflow.contrib.learn.python.learn.monitors.NanLossDuringTrainingError: NaN-Verlust während des Trainings.
Traceback entstand mit Zeile:
tf.contrib.learn.DNNClassifier(feature_columns=feature_columns,
hidden_units=[300, 300, 300],
#optimizer=tf.train.ProximalAdagradOptimizer(learning_rate=0.001, l1_regularization_strength=0.00001),
n_classes=11,
model_dir="/tmp/iris_model")
Ich habe versucht, den Optimierer anzupassen, eine Null für die Lernrate zu verwenden und keinen Optimierer zu verwenden. Alle Einblicke in Netzwerkschichten, Datengröße usw. sind willkommen.