Il y a beaucoup de choses qui disent que la taille de la base de données ne devrait pas affecter les performances dans une large mesure. Tant que les index des tables tiennent en mémoire, la base de données doit rester performante.
Mais quelle est la réalité? Si l'architecture de la base de données n'est pas la meilleure, les index ne tiennent pas en mémoire et il y a potentiellement beaucoup de données redondantes. Des gains importants doivent-ils être réalisés simplement en supprimant les données redondantes? J'estime que 60 à 80% des données de ma base de données pourraient être supprimées.
Je crois que la réduction de la taille de la base de données et l'augmentation de la RAM afin que les index puissent tenir en mémoire donneraient une augmentation significative des performances qui donnerait une marge de manœuvre pendant quelques mois pour réorganiser le système.
Existe-t-il également d'autres facteurs tels que les E / S, la fragmentation, l'ensemble de données de travail, etc., qui affectent les performances en fonction de la taille de la base de données?