Comment puis-je sauvegarder mon système sur un serveur distant (partage AFP, Samba ou NFS)?


11

Voici l'objectif: j'ai un serveur de sauvegarde avec un système de fichiers ZFS avec compression et snapshots intégrés. Toutes nos machines y sauvegardent tous les soirs rsync, puis un instantané ZFS est pris, nous avons donc des sauvegardes de l'apparence de chaque machine à la fin de chaque journée.

Le problème est qu'avec Mac OS X, les fourches de ressources ne sont pas copiées car la machine distante ne prend pas en charge les fourches de ressources. Ce que je voudrais faire, c'est rsyncun fichier .DMG qui réside sur le serveur de sauvegarde. De cette façon, j'aurais une image exacte et amorçable de l'apparence de mon système chaque nuit.

En prime, le serveur de sauvegarde est également un serveur NetBoot, donc cela me permettrait en fait de démarrer à partir de la façon dont mon Mac était à tout moment de l'histoire.

J'ai créé une image du lecteur de mon Mac et l'ai copiée sur le serveur de sauvegarde. Maintenant, lorsque je l'ouvre sur mon Mac et que je l'exécute rsync, il fonctionne pendant une période (parfois plus d'une heure, parfois moins) et me donne ensuite une tonne d'erreurs d'E / S. L'image est stockée sur une matrice RAID, je suis sûr qu'il n'y a pas d'erreurs d'E / S.

Je pense que la connexion avec le partage Samba peut être dépassée ... J'ai également essayé avec AFP, et j'obtiens le même résultat ... Qu'est-ce qui pourrait causer cela et comment puis-je le résoudre? Ou, d'autres idées sur la façon de mettre à jour le fichier DMG distant?


3
Plutôt que de réinventer TimeMachine en utilisant des outils open source / unixy (que j'adore et que j'adore) - avez-vous envisagé d'exécuter le logiciel gratuit CrashPlan sur les deux machines? Ils offrent des logiciels très avancés et bien pris en charge si vous avez besoin d'aide de leur part.
bmike

Hmmm, je vais devoir regarder ça! La raison pour laquelle je "réinvite" TimeMachine, FYI, est que TimeMachine nécessite un grand lecteur USB pour chaque machine, et dans notre configuration, nous ne l'avons pas, nous avons plutôt un RAID de sauvegarde sur site massif.
Josh

Je comprends parfaitement vos raisons. ZFS est génial et réutiliser l'infrastructure existante est tellement logique. Pour plusieurs clients avec 10 à 30 macs - le point idéal a été un mini serveur mac partageant un lecteur avec tous les clients mac pour Time Machine. Ce serveur a un plan de plantage pour le serveur principal pour les rotations bande / hors site (et les sparsebundles encapsulent HFS et métadonnées). DeployStudio gère les images de démarrage et les restaurations réseau. Bonne chance et dites-nous comment ça se passe.
bmike

Un autre +1 à la suggestion CrashPlan de @ bmike. Utilise Hadoop sous le capot et peut faire des incréments comme TimeMachine. Gratuit pour pousser les sauvegardes vers un autre lecteur ou ordinateur. L'interface utilisateur n'est pas aussi agréable que TimeMachine.
Ian C.

+1 pour crashplan. C'est un excellent logiciel gratuit et a l'avantage supplémentaire que vous pouvez facilement ajouter plus de points de sauvegarde - y compris leurs propres serveurs moyennant des frais.
cregox

Réponses:


5

Configurez un nouveau volume sur votre boîtier Nexenta / OS pour votre sauvegarde et configurez-le pour le partager en tant que LUN iSCSI. Utilisez ensuite l'un des plusieurs initiateurs iSCSI pour MacOS X pour attacher le volume de sauvegarde sur votre dos. Sur votre Mac, formatez le volume en HFS +. Vous pouvez maintenant utiliser CCC ou rsync, etc. pour effectuer vos sauvegardes.


2
C'est une idée fantastique. Je vais essayer ça après avoir fini de travailler pour la journée!
Josh

1
+1 - Je pensais à un moyen d'utiliser iSCSI pour vous y rendre et encapsuler les données spécifiques au mac. Moins il y a d'étapes, mieux c'est.
bmike

Bah! Tout comme je tapais que cela fonctionne très bien, la connexion a été perdue. Mais j'ai encore de l'espoir pour cette solution ...
Josh

@Josh: Savez-vous pourquoi la connexion a été perdue (débranchement physique, etc.). Avez-vous également une carte réseau distincte pour votre connexion iSCSI?
tegbains

Je ne sais pas ce qui cause la perte de connexion, mais comme cela se produit avec tous les protocoles maintenant, AFP, CIFS, NFS et iSCSI, c'est un problème avec le serveur. Je pense que le transfert de données écrase juste la machine virtuelle et il ne répond plus ... mais je vais poser une autre question, probablement sur l'échange de pile unix et linux.
Josh

3

Avez-vous envisagé d'utiliser Carbon Copy Cloner ? Je l'utilise pour une sauvegarde manuelle bit par bit de mon SSD sur un lecteur réseau une fois par mois environ et cela fonctionne parfaitement. Je sais qu'il fait des sauvegardes incrémentielles, et je n'ai eu aucun problème à vider mon disque sur Ethernet Gigabit.


Malheureusement, lorsque j'utilise CCC pour une sauvegarde incrémentielle, il s'exécute rsyncet j'obtiens le même résultat :-(
Josh

Lorsque vous videz votre lecteur sur le lecteur réseau, qu'est-ce qui héberge le lecteur réseau? OS X? Linux? Comment vous connectez-vous? Samba? AFP? Utilisez-vous CCC directement sur le lecteur réseau ou accédez-vous à un DMG sur le lecteur réseau?
Josh

@Josh: Vous pouvez CCC sur l'image disque montée
tegbains

C'est ce que je faisais - et CCC fonctionnait rsyncet j'obtenais les mêmes erreurs d'E / S :-(
Josh

2

Pas la réponse exacte à votre question, mais vous pouvez également rsync les fourches de ressources. Voici de très bons articles sur:

ps: utilisez-vous solaris ou freebsd?

Alors, ce que j'ai essayé maintenant:

J'ai un système d'exploitation distant (pas mac) et l'ai monté via fuse / sshfs (sur l'ADSL lent).

sshfs user@example.com:/path/to/dir /Users/me/Mount/myfs -oauto_cache,reconnect,volname=MyFs

Sur mon macbook entré ceci:

/usr/bin/rsync -avE /Users/me/tmp/bk /Users/me/Mount/myfs/tmp/test

(le test / tmp / existe déjà sur l'ordinateur distant)

et j'ai obtenu ceci:

building file list ... done
bk/
._bk
bk/.DS_Store
bk/._.DS_Store
bk/Icon\#015
bk/._Icon\#015
bk/test.rtfd/
bk/test.rtfd/.LSOverride
bk/test.rtfd/TXT.rtf

sent 311127 bytes  received 186 bytes  15186.00 bytes/sec
total size is 6874  speedup is 0.02

Comme vous pouvez le voir, les fourches de ressources sont converties en fichiers dot_underscore et copiées dans un emplacement distant. (par exemple, l'icône personnalisée du répertoire bk également).

Par conséquent, je ne comprends pas, pourquoi vous ne pouvez pas rsync dans les zfs distants?


1
Peu importe ce que j'ai essayé, je n'arrive pas à faire rsync pour copier les fourchettes de ressources, je pense parce que le système ZFS ne les prend pas en charge ... Je ne suis pas sûr. J'ai d'abord essayé avec un serveur Debian kBSD, mais je suis passé à Nexenta (noyau OpenSolaris + noyau Debian) car il prend en charge NFS et Netatalk.
Josh

Et le 3ème lien? (qui montre une solution indépendante OS / FS)
jm666

1
ça m'intéresse vraiment. Voici un autre lien pour zfs + timemachine. blogs.oracle.com/constantin/entry/zfs_and_mac_os_x
jm666

Ah, je vois, vous montez le répertoire et vous le gérez rsynclocalement! J'essayais de rsync du Mac au serveur! Je vais essayer ceci et vous contacter.
Josh

0

Je ne sais pas pourquoi , mais la connexion au serveur a été interrompue lors de la copie du fichier et je suppose que c'est parce que la grande quantité de données transférées à une vitesse aussi élevée était supérieure à ce que le serveur de sauvegarde pouvait gérer; il ne répondrait plus pendant une courte période et le Mac déconnecterait de force le DMG, et la sauvegarde échouerait.

J'ai trouvé une solution: avant de sauvegarder, dans les Préférences Système, j'ai réduit la vitesse de mon NIC Ethernet de 1000Mbps à 100Mbps. Ensuite, la sauvegarde a semblé fonctionner parfaitement, car le débit de données était limité et le serveur de sauvegarde n'était pas dépassé.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.