J'ai un tableau très fréquemment mis à jour avec 240 millions de lignes (et en croissance). Toutes les trois heures, 1,5 million de lignes sont insérées et 1,5 million sont supprimées. Lorsque j'ai déplacé le cluster vers un SSD, cette durée d'insertion en masse (à l'aide de la copie) a été réduite de 22 minutes à 2,3 minutes. Le temps de suppression a également été amélioré. J'ai l'intention de faire cette mise à jour groupée toutes les deux heures ou toutes les heures.
Bien que les performances maintenant (après SSD) soient compatibles avec une mise à jour plus fréquente, j'ai lu des histoires d'horreur sur la mort des SSD en raison de l'endurance NAND limitée combinée à l'amplification en écriture. Comme les SSD sont chers, je voudrais pousser sa mort aussi loin que possible dans le futur. D'où ma question: qu'arrive-t-il vraiment au fichier disque lors d'une suppression et d'un vide ultérieur? Je suppose qu'il y a deux écritures sur disque, une pour marquer la ligne comme supprimée et l'autre lors de la mise sous vide pour la marquer comme disponible pour l'écrasement. Si au lieu de supprimer et de passer l'aspirateur, je partitionne la table en créant et en supprimant des tables à chaque insertion / suppression en masse, est-ce que je minimiserais l'usure du SSD?