Hintergrund: Beim Anpassen neuronaler Netze mit Relu-Aktivierung stellte ich fest, dass die Vorhersage manchmal nahezu konstant wird. Ich glaube, dass dies daran liegt, dass die Relu-Neuronen während des Trainings sterben, wie hier angegeben. ( Was ist das "sterbende ReLU" -Problem in neuronalen Netzen? )
Frage: Ich hoffe, eine Überprüfung im Code selbst durchzuführen, um zu überprüfen, ob die Neuronen tot sind. Danach kann der Code das Netzwerk bei Bedarf neu einrichten.
Was ist als solches eine gute Citeria, um nach toten Neuronen zu suchen? Derzeit denke ich daran, die Vorhersage als Citeria auf geringe Varianz zu überprüfen.
Wenn es hilft, benutze ich Keras.