J'ai un script convertissant des fichiers vidéo et je l'exécute sur le serveur sur des données de test et mesure son temps time
. En résultat, j'ai vu:
real 2m48.326s
user 6m57.498s
sys 0m3.120s
Pourquoi le temps réel est-il bien inférieur au temps utilisateur? Cela a-t-il un lien avec le multithreading? Ou quoi d'autre?
Edit: Et je pense que ce script tournait autour de 2m48s
real
temps est l'heure de l'horloge murale comme expliqué ci-dessous (c'est-à-dire ce que nous mesurerions si nous avions un chronomètre)