La configuration de S2D qui fournit jusqu'à 2 millions d'E / S par seconde à SQL FCI


8

Nous sommes sur le point de déployer des recherches de stockage partagé pour un stockage ultra-rapide afin d'implémenter le cluster de basculement Microsoft SQL Server (FCI). Jusqu'ici le projet va, nous commencerions avec 500K IOPS pour 8k blocs environ 70r / 30w. Nous aimerions également avoir la possibilité d'augmenter la pefromance jusqu'à 2 millions d'E / S par seconde (pour le même modèle) dans un an environ, en raison des attentes croissantes du serveur SQL.

Aux fins du projet, nous allons déployer un cluster à 4 nœuds de Microsoft Storage Spaces Direct (S2D). En ce qui concerne le matériel, nous avons déjà 2x serveurs rack Dell R730xd avec 2x E5-2697 et 512 Go de RAM et nous sommes prêts à en obtenir 2 de plus.

En ce qui concerne le stockage, Microsoft recommande d'utiliser NVMe ou NVMe + SSD pour obtenir des performances maximales ( source ). Par conséquent, après quelques recherches, les SSD Samsung sont bons. https://www.starwindsoftware.com/blog/benchmarking-samsung-nvme-ssd-960-evo-m-2 http://www.storagereview.com/samsung_960_pro_m2_nvme_ssd_review

La configuration que nous considérons est la suivante: 1x Samsung 960 EVO NVMe + 4x Samsung PM863 SSD par hôte S2D.

L'implémentation S2D à l'aide de Samsung 960 EVO NVMe et Samsung PM863 peut-elle fournir 500 ko à SQL FCI?

ÉDITER:

a) n'avez-vous pas demandé quelque chose de similaire l'autre jour? - J'ai fait. Une nouvelle question a été postée puisque le premier plan était hors sujet. Le sujet et le corps sont modifiés. La question précédente sera supprimée.

b) ce sont des disques grand public, - La question est sur le point de trouver la configuration de S2D qui pourrait héberger 500k IOPS requis au démarrage. Quelle configuration recommanderiez-vous?

c) comment prévoyez-vous de connecter tous ceux-ci, je ne connais pas de serveur avec 5 emplacements M.2 - nous devons le savoir, - Un seul lecteur M.2 par chaque nœud doit être utilisé. J'ai corrigé la configuration du stockage partagé: 1x Samsung 960 EVO NVMe + 4x Samsung PM863 SATA SSD par hôte S2D.

d) quel type d'IOPS (taille et type)? - SQL FCI lire la charge de travail intensive de blocs 4k, 8k, 64k. La plage de lecture est de 70 à 90% et celle de 1 à 30 à 10%

e) 500k à 2M est une très large gamme de variance des besoins - pourquoi une telle gamme? - Les performances du projet devraient augmenter considérablement au cours de la période de tri, nous devons donc avoir la capacité d'exécuter une charge de travail 4x sur le même matériel jusqu'à la première année. Un an après, nous ajouterons 4x hôtes supplémentaires au cluster.

Nous sommes Microsoft Shop, il n'y a donc pas d'option pour aller ailleurs que Microsoft SQL Server 2016. De plus, comme vous pourriez consommer, le projet nécessite une redondance et une disponibilité supplémentaire, donc SQL Failover Cluster Intance sera déployé à côté de S2D.


2
a) n'avez-vous pas demandé quelque chose de similaire l'autre jour? b) ce sont des disques grand public, c) comment prévoyez-vous de connecter tous ceux-ci, je ne connais pas de serveur avec 5 emplacements M.2 - nous devons le savoir, d) quel type d'IOPS ( taille et type)? e) 500k à 2M est une très large gamme de variance des besoins - pourquoi une telle gamme? f) Nous pourrions en savoir plus sur les spécifications de votre serveur - détails s'il vous plaît.
Chopper3

1
@ Chopper3 Merci pour le commentaire. J'ai ajouté des informations.
Joshua Turnwell

1
Cela répond à l'une de ces questions - qu'en est-il du reste?
Chopper3

1
@ Chopper3 Veuillez consulter les informations ajoutées. Que faut-il d'autre?
Joshua Turnwell

1
Merci, je ne sais toujours pas comment vous prévoyez de connecter ces 5 disques M.2 au serveur, mais je renonce à demander à nouveau. Une dernière question - avez-vous vraiment besoin d'une base de données relationnelle pour cela? Vous pouvez très bien le faire, mais si vous pouvez vous poser cette question et que vous pourriez vous en tirer avec une ligne de moteur NoSQL Couchbase ou MongoDB, etc., vous trouveriez tout à coup très facile en effet de bien dépasser les 2 millions d'IOPS. La raison pour laquelle je demande tout cela est parce que vous voulez le faire via MSSQL, S2D (donc WS2016) et via SSD grand public - tout cela est très nouveau et non testé .... à confirmer
Chopper3

Réponses:


8

C'est une mauvaise idée d'utiliser des SSD grand public dans vos déploiements SDS. VMware VSAN et Microsoft S2D supposent tous deux que les écritures seront "atomiques", donc un ACK-ed par hôte est en fait sur une mémoire persistante; Les SSD grand public n'ont aucune protection contre les coupures de courant, ils POURRAIENT donc perdre vos données. L'endurance en écriture est également très différente.

https://blogs.technet.microsoft.com/filecab/2016/11/18/dont-do-it-consumer-ssd/

https://blogs.vmware.com/vsphere/2013/12/virtual-san-hardware-guidance-part-1-solid-state-drives.html

http://www.yellow-bricks.com/2013/09/16/frequently-asked-questions-virtual-san-vsan/

Je suggère de s'en tenir à certaines cartes NVMe de qualité entreprise.


5
Cette! Pour le cas, je vous recommande de jeter un oeil à Intel entreprise cartes NVMe telles que modèle P3700: storagereview.com/intel_ssd_dc_p3700_25_nvme_ssd_review Ici , il est PM863 benchmarks du même site, BTW: storagereview.com/samsung_pm863_ssd_review
batistuta09

3
Intel P3700 est génial. Je vais vérifier Intel Enterprise NVMe pour le cas. Merci.
Joshua Turnwell
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.