2.0 Réponse compatible : Bien que la réponse mentionnée ci-dessus explique en détail comment utiliser le GPU sur le modèle Keras, je veux expliquer comment cela peut être fait Tensorflow Version 2.0
.
Pour savoir combien de GPU sont disponibles, nous pouvons utiliser le code ci-dessous:
print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU')))
Pour savoir à quels appareils vos opérations et tenseurs sont affectés, mettez-le tf.debugging.set_log_device_placement(True)
comme première déclaration de votre programme.
L'activation de la journalisation du placement de périphérique entraîne l'impression de toutes les allocations ou opérations Tensor. Par exemple, exécutez le code ci-dessous:
tf.debugging.set_log_device_placement(True)
# Create some tensors
a = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])
b = tf.constant([[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]])
c = tf.matmul(a, b)
print(c)
donne la sortie ci-dessous:
Exécution de l'opération MatMul dans device / job: localhost / replica: 0 / task: 0 / device: GPU: 0 tf.Tensor ([[22. 28.] [49. 64.]], shape = (2, 2), dtype = float32)
Pour plus d'informations, reportez - vous à ce lien