Comment configurer les options OSD personnalisées de ceph dans ceph-ansible?


0

Actuellement, je déploie un cluster ceph sur quelques machines ARM, à savoir le HC2 d'ODROID équipé de disques Red WD 4 To. J'ai également trouvé un article de WD Labs , effectuant la même tâche à grande échelle (504 OSD), suggérant d'ajuster les paramètres OSD avec

osd map cache size = 40
osd map max advance = 32
osd map message max = 32

Maintenant, je me demande (non seulement pour ces options uniquement), comment les mettre dans les groupes groupable ou hôtes vars, afin de prendre en charge les ressources relativement faibles des HC2.

Actuellement, je pense que ce n'est pas possible avec les playbooks actuels de ceph-ansible.

J'apprécierais vraiment si quelqu'un pouvait me donner un indice à ce sujet. ceph-ansible ne semble pas vraiment utiliser les fichiers de modèle pour la configuration (uniquement en tant qu'espaces réservés). Comment pourrait-il être étendu ou modifié pour rendre ces paramètres possibles?

Réponses:


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.