Ich frage mich, warum das Training von RNNs normalerweise nicht 100% der GPU verwendet.
Wenn ich diesen RNN-Benchmark beispielsweise auf einem Maxwell Titan X unter Ubuntu 14.04.4 LTS x64 ausführe, liegt die GPU-Auslastung unter 90%:
Der Benchmark wurde mit dem folgenden Befehl gestartet:
python rnn.py -n 'fastlstm' -l 1024 -s 30 -b 128
Wie kann ich den Engpass diagnostizieren?