Lorsqu'ils demandent au support Gitlab comment faire une sauvegarde de 3 To sur ceux Gitlab sur site, ils répondent en utilisant notre outil qui produit un tarball.
Cela me semble mal à tous les niveaux. Cette archive contient le vidage postgres, les images docker, les données de dépôt, la configuration GIT LFS, etc., etc. La sauvegarde de TB de données statiques avec des données très dynamiques de la base de connaissances ne fonctionne pas correctement. Et puis vient le problème de, nous voulons faire une sauvegarde toutes les heures.
Question
J'aimerais vraiment savoir comment les autres procèdent, pour obtenir une sauvegarde cohérente.
ZFS sur Linux me conviendrait, si cela fait partie de la solution.
If your GitLab server contains a lot of Git repository data you may find the GitLab backup script to be too slow. In this case you can consider using filesystem snapshots as part of your backup strategy.
je ne peux pas parler d'expérience, cependant. Mais je