2.0 Kompatible Antwort : Während die oben erwähnte Antwort ausführlich erklärt, wie die GPU im Keras-Modell verwendet wird, möchte ich erklären, wie dies getan werden kann Tensorflow Version 2.0
.
Um zu wissen, wie viele GPUs verfügbar sind, können wir den folgenden Code verwenden:
print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU')))
Geben Sie tf.debugging.set_log_device_placement(True)
als erste Anweisung Ihres Programms an, welchen Geräten Ihre Operationen und Tensoren zugewiesen sind .
Durch Aktivieren der Geräteplatzierungsprotokollierung werden alle Tensorzuordnungen oder -vorgänge gedruckt. Führen Sie beispielsweise den folgenden Code aus:
tf.debugging.set_log_device_placement(True)
# Create some tensors
a = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])
b = tf.constant([[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]])
c = tf.matmul(a, b)
print(c)
gibt die unten gezeigte Ausgabe an:
Ausführen von op MatMul in Gerät / Job: localhost / replica: 0 / task: 0 / Gerät: GPU: 0 tf.Tensor ([[22. 28.] [49. 64.]], shape = (2, 2), dtype = float32)
Weitere Informationen finden Sie unter diesem Link