Je suis en train de configurer un serveur de fichiers et j'en suis arrivé à configurer réellement les lecteurs de données. Le système dispose de 4 lecteurs (un disque OS, 3 disques de données). Le disque du système d'exploitation est formaté en ext4 et ne sera pas ajouté au pool ZFS (si je choisis d'exécuter ZFS) .Mon souci principal est l'intégrité des données et le risque minimum de perte de données (la mise en cache du lecteur est désactivée dans le BIOS). Pour cela, ZFS semble être le candidat parfait, car il a une version stable pour Linux (correct?), Et prend en charge la duplication de données, la mise en commun et raidz, où les disques durs n'ont pas à être de la même taille.
Mais voici mon problème. Le serveur n'a que 2 Go de RAM et cela ne peut pas être mis à niveau dans un proche avenir, et de manière réaliste, seul 1.5 sera réellement accessible à ZFS après avoir installé tous les autres services. Un maximum d'environ 10 clients l'utiliseront à un moment donné (plus comme 4 en moyenne). Est-ce trop bas pour être considéré comme sûr?
D'après ce que je comprends, ZFS peut planter dans des situations de faible RAM et emporter le pool avec. J'ai entendu des opinions contradictoires sur la question de savoir si le swap contribuera à atténuer ce problème (j'ai un disque dédié au swap de 20 Go). Quelqu'un a-t-il subi une perte de données avec ZFS avec peu de RAM et quelles optimisations avez-vous inclus pour éviter cela?
Compte tenu de ce qui précède, serait-il possible de continuer à exécuter ZFS, bien que réduire la taille de l'ack et le réduire un peu ou est-ce trop risqué?
Spécifications du système: 2 Go de RAM, 20 Go de swap drive OS, Debian 7, installation minimale, avec FTP, et XBMC, DNLA (pour donner une idée des besoins en RAM). Utilisé pour le serveur de stockage et le streaming de musique sur d'autres appareils.