2.0 Réponse compatible : Bien que la réponse mentionnée ci-dessus explique en détail comment utiliser le GPU sur le modèle Keras, je veux expliquer comment cela peut être fait Tensorflow Version 2.0.
Pour savoir combien de GPU sont disponibles, nous pouvons utiliser le code ci-dessous:
print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU')))
Pour savoir à quels appareils vos opérations et tenseurs sont affectés, mettez-le tf.debugging.set_log_device_placement(True)comme première déclaration de votre programme.
L'activation de la journalisation du placement de périphérique entraîne l'impression de toutes les allocations ou opérations Tensor. Par exemple, exécutez le code ci-dessous:
tf.debugging.set_log_device_placement(True)
# Create some tensors
a = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])
b = tf.constant([[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]])
c = tf.matmul(a, b)
print(c)
donne la sortie ci-dessous:
Exécution de l'opération MatMul dans device / job: localhost / replica: 0 / task: 0 / device: GPU: 0 tf.Tensor ([[22. 28.] [49. 64.]], shape = (2, 2), dtype = float32)
Pour plus d'informations, reportez - vous à ce lien