Vidage du cache SQL Server et E / S disque


11

Nous sommes occupés à tester en charge un système OLTP que nous avons développé dans .NET 4.0 et exécutons SQL Server 2008 R2 à l'arrière. Le système utilise des files d'attente SQL Server Service Broker, qui sont très performantes, mais nous connaissons une tendance particulière lors du traitement.

SQL Server traite les demandes à une vitesse fulgurante pendant 1 minute, suivie par environ 20 secondes d'activité d'écriture sur disque accrue. Le graphique suivant illustre le problème.

Système SQL OLTP - Compteurs de performances

Yellow = Transactions per second
Blue   = Total CPU usage
Red    = Sqlsrv Disk Write Bytes/s
Green  = Sqlsrv Disk Read Bytes/s

Pendant le dépannage, nous avons essayé ce qui suit sans aucun changement significatif dans le modèle:

  • Agent SQL Server arrêté.
  • Tué presque tous les autres processus en cours d'exécution (pas d'A / V, SSMS, VS, Windows Explorer, etc.)
  • Suppression de toutes les autres bases de données.
  • Désactivé tous les minuteurs de conversation (nous n'utilisons aucun déclencheur).
  • Déplacé d'une approche basée sur la file d'attente de messages vers une conception de surveillance de table simple / brute.
  • Utilisé différentes charges de légères à lourdes.
  • Correction de tous les blocages.

Il semble que SQL Server puisse créer son cache et l'écrire sur le disque à des intervalles temporels spécifiques, mais je ne trouve rien en ligne pour soutenir cette théorie.

Ensuite, je prévois de déplacer la solution vers notre environnement de test dédié pour voir si je peux reproduire le problème. Toute aide dans l'intervalle serait grandement appréciée.

Mise à jour 1 Comme demandé, ci-joint un graphique qui inclut les pages de point de contrôle / s , l' espérance de vie de la page et certains compteurs de latence de disque.

Système SQL OLTP - Compteurs de performances - Checkpoint

Il semble que le point de contrôle (ligne bleu clair) soit à l'origine de la baisse des performances (ligne jaune) que nous observons. ^

La latence du disque reste relativement cohérente pendant le traitement et l'espérance de vie de la page ne semble pas avoir d'effet notable. Nous avons également ajusté la quantité de RAM disponible pour SQL Server, ce qui n'a pas non plus eu un grand effet. La modification du modèle de récupération de SIMPLEà FULLn'a également fait aucune différence.

Mise à jour 2 En modifiant «l'intervalle de récupération» comme suit, nous avons réussi à réduire l'intervalle auquel les points de contrôle se produisent:

EXEC sp_configure 'show advanced options',1
GO 

RECONFIGURE
GO

EXEC sp_configure 'recovery interval', '30'
GO

RECONFIGURE 
GO

EXEC sp_configure 'show advanced options',0
GO
RECONFIGURE

Je ne sais pas si c'est une mauvaise pratique?


1
Ajoutez le compteur de points de contrôle pages / s. Et testez à nouveau et montrez le graphique. Et pendant que vos transactions baissent et que les écritures augmentent - voyez-vous des problèmes de performances? J'ajouterais également des compteurs de latence de disque - moyenne / lecture et moyenne / écriture
Mike Walsh

Et lorsque vous publiez les graphiques suivants, vous pouvez inclure les chiffres. Ce graphique ne montre aucune échelle.
Mike Walsh

5
Et une dernière chose (désolé!) - Quelle est la mémoire sur ce serveur? Pouvez-vous également ajouter le compteur d'espérance de vie de la page? Pouvez-vous décrire la configuration physique (mémoire, configuration IO, avez-vous divisé votre journal et vos fichiers de données, etc.)
Mike Walsh

2
Dans quel modèle de récupération se trouve la base de données? Cela ressemble à un point de contrôle automatique lorsque le journal des transactions se remplit. Notez que même si la base de données se trouve dans FULLou BULK_LOGGED, elle se comporte toujours comme si elle se trouvait SIMPLEjusqu'à ce que vous effectuiez une sauvegarde complète.
Jon Seigel

2
Jon - Checkpointing se produira toujours quel que soit le modèle de récupération. Simplifié: la seule différence est ce qui arrive aux données du journal après un point de contrôle dans les modèles de récupération. En intégralité, il reste dans le journal et doit être sauvegardé. En simple, il peut être tronqué (ou marqué pour la troncature .. réutilisation) mais le point de contrôle doit encore se produire.
Mike Walsh

Réponses:


11

D'autres ont déjà signalé le coupable: SQL Server accumule les mises à jour en mémoire (dans le pool de mémoire tampon) et ne les vide que périodiquement (aux points de contrôle). Les deux options proposées (-k et intervalle de point de contrôle) sont complémentaires:

Mais je n'ai pas répondu seulement pour régurgiter les bons commentaires que vous avez reçus faites loin :)

Ce que vous voyez est, malheureusement, un comportement très typique du traitement en file d' attente . Que vous utilisiez des files d'attente Service Broker ou que vous optiez pour l' utilisation de tables à l' approche des files d'attente , le système est très sujet à ce type de comportement. En effet, le traitement basé sur la mise en file d'attente est lourd en écriture, encore plus en écriture que le traitement OLTP. Les deux enqueue et dequeue primitives sont des opérations d'écriture et il y a des opérations presque pas lus. Autrement dit, le traitement de la file d'attente générera le plus d'écritures (= la plupart des pages sales et la plupart des journaux) par rapport à toute autre charge de travail, même OLTP (c'est - à-dire charge de travail de type TPC-C ).

Très important, les écritures d'une charge de travail de file d'attente suivent un modèle d'insertion / suppression: chaque ligne insérée est très rapidement supprimée. Ceci est important à distinguer d'un modèle en ajout uniquement d'une charge de travail ETL (insert heavy). Vous nourrissez essentiellement la tâche de nettoyage des fantômes avec un repas complet, et vous pouvez facilement le dépasser. Réfléchissez à ce que cela signifie:

  • enqueue est un insert, cela créera une page sale
  • dequeue est une suppression, il salira à nouveau la même page (il peut être chanceux et attraper la page avant le point de contrôle, donc il évitera les doubles vidages, mais seulement s'il a de la chance)
  • le nettoyage des fantômes nettoiera la page, la rendant à nouveau sale

Oui, cela signifie vraiment que vous pouvez finir par écrire une page trois fois sur le disque, dans trois demandes d'E / S différentes, pour chaque message que vous traitez (pire cas). Et cela signifie également que les entrées-sorties aléatoires des points de contrôle seront vraiment aléatoires car le point d'écriture de la page sera à nouveau visité par ces têtes mobiles entre deux points de contrôle (comparer avec de nombreuses charges de travail OLTP ont tendance à regrouper les écritures sur certains `` points chauds '', pas de files d'attente ...).

Vous avez donc ces trois points d'écriture, en course pour marquer la même page encore et encore. Et c'est avant que nous considérions les fractionnements de page, quel traitement de file d'attente peut également être sujet à cause de l'ordre d'insertion des clés. En comparaison, les charges de travail OLTP `` typiques '' ont un rapport lecture / écriture beaucoup plus équilibré et les écritures OLTP sont réparties sur les insertions / mises à jour / suppressions, souvent avec des mises à jour (changements de `` statut '') et des insertions qui prennent la part du lion. Les écritures de traitement de file d'attente sont exclusivement insérées / supprimées avec, par définition, une répartition 50/50.

Certaines conséquences s'ensuivent:

  • Checkpoint devient un problème très chaud (plus une surprise pour vous)
  • Vous verrez une forte fragmentation (la fragmentation en soi n'aura pas beaucoup d'importance car vous n'allez pas faire de balayage de plage, mais votre efficacité d'E / S souffre et le nettoyage des fantômes a plus à travailler, le ralentissant encore plus)
  • Votre débit d'E / S aléatoire de stockage MDF va être votre goulot d'étranglement

Ma recommandation se décline en 3 lettres: S, S et D. Déplacez votre MDF vers un stockage capable de gérer des E / S aléatoires rapides. SSD. Fusion-IO si vous avez l'argent. Malheureusement, c'est l'un de ces symptômes qui ne peut pas être résolu avec une RAM plus bon marché ...

Éditer:

Comme le souligne Mark, vous disposez de deux disques logiques soutenus par un disque physique. Vous avez peut-être essayé de suivre les meilleures pratiques et de diviser le journal sur D: et les données sur C: mais hélas, en vain, C et D sont le même disque. Entre les points de contrôle, vous atteignez un débit séquentiel, mais dès que le point de contrôle démarre, les têtes de disque commencent à se déplacer et votre débit de journal s'effondre, ce qui réduit le débit de l'application entière. Assurez-vous de séparer le journal de base de données afin qu'il ne soit pas affecté par les données d'E / S (disque distinct).


2
Il serait intéressant de savoir pourquoi les E / S pilotées par des points de contrôle ont un impact si dramatique sur les compteurs d'applications. L'idéal serait que l'application laboure en avant pendant que le point de contrôle fait son travail. Bien sûr, je suppose que vous ne partagez pas le chemin d'accès au stockage LDF et MDF (si vous le faites, vous le méritez ...). Vous avez peut-être des points de discorde inutiles dans l'application.
Remus Rusanu

Réponse très gentiment Remus.
Mark Storey-Smith

3
En regardant les compteurs perfmon répertoriés, je pense que vous pourriez avoir raison sur les données et les journaux se trouvant sur le même lecteur ou la même baie.
Mark Storey-Smith

@ MarkStorey-Smith: Je pense que vous avez raison, OP a C:et D:des disques logiques soutenus par le même disque physique. Je doute que le disque physique soit une batterie de 100 broches courtes, donc c'est probablement la cause première.
Remus Rusanu

Oui, ce test a été effectué sur ma machine de développement locale, qui n'a qu'un seul lecteur. Merci pour l'aide tous.
André Hauptfleisch
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.