Je travaille avec un fichier tar.gz (196 Go). Ce fichier doit être extrait (240 Go) sur place et je voudrais que l'utilisation totale du disque ne dépasse pas 240 Go au cours du processus (ou aussi près que possible de celui-ci). Est-il possible que cela soit fait?
je suis familier avec --remove-files
. Je ne pense pas que cela limitera le total des besoins en disques. Je comprends également que gunzip extrait et supprime automatiquement le fichier source (mais que le fichier .tar doit toujours être extrait). Est-ce que le gunzip <file>
commande nécessite plus d’espace disque que le tar extrait?
Résumer:
- Question 1: Quel est le moyen le plus simple d'extraire un fichier .tar.gz sur site avec un temps système minimal de stockage dur
- Question 2: Puis-je configurer les sous-opérations
gunzip <file>
ettar --remove-files
faire ce qui précède?
Ma solution de sauvegarde consiste à stocker des données fragmentées et à les extraire de manière itérative, mais je préférerais une solution simple, non récursive.
… | tar -xf -
vous avez besoin… | gzip -cd | tar -xf -
. Je n'ai pas testé cela en détail, mais cette approche semble assez saine.