Y at-il une raison de garder la partition principale / lecteur C: petit de Windows?


70

Dans mon travail, il y a près de deux décennies, les experts en informatique gardaient la taille de la partition principale de Windows (lecteur C) extrêmement petite comparée aux autres partitions. Ils argueraient que cela fait fonctionner PC à une vitesse optimale sans ralentir.

Mais l’inconvénient est que le lecteur C: se remplit facilement s’il est réduit au minimum, et vous ne pourrez bientôt plus installer de nouveau logiciel, car il manque d’espace. Même si j'installe le logiciel sur le lecteur D:, une partie est toujours copiée dans le répertoire C: qui le remplit.

Ma question est cette pratique encore bonne? Pourquoi c'est fait. Quels sont ses principaux avantages, le cas échéant? Une des plus évidentes est que si la partition principale tombe en panne, vos données sont en sécurité en secondaire.

La raison pour laquelle je pose cette question est parce que j'essaie de mettre à jour Visual Studio et je ne peux pas, car il ne me reste que 24 Mo dans la partition principale.


2
Qu'entendez-vous par "taille de la partition principale petite (par exemple 100 Go)"? 100 Go n'est pas "petit" par la plupart des mesures? Voulez-vous dire "plus petit que le lecteur entier"? Et par "partition principale", voulez-vous dire la partition qui héberge le système de fichiers pour le lecteur Windows C :? Et quelle est la capture d'écran que vous avez posté censée expliquer? Il montre juste un lecteur complet ... S'il vous plaît éditer pour clarifier.
Sleske

10
100 Go peuvent sembler minimes, mais ces jours-ci, les gros logiciels le remplissent assez rapidement, comme dans mon cas. Partition principale = Partition principale = Partition de démarrage. Les captures d’écran montrent mon partitien principal (lecteur c :) et constatent qu’il ne reste que 24 Mo). Mon D: est de 90 Go gratuit et E: de 183 Go.
hk_

1
J'ai pris la liberté de modifier votre question pour clarifier. À l'avenir, il est préférable de modifier directement votre question pour ajouter des informations - les commentaires peuvent être supprimés et tout le monde ne les lira pas tous.
Sleske

28
Je dirais que ces "experts" avaient tort à l'époque et qu'ils ont tort maintenant. Je suis sûr que dans certains cas, un petit lecteur C: peut être / a été utile, mais pour la majorité des utilisateurs normaux (y compris les développeurs), le mieux, par défaut, est de disposer d’une seule partition C: la plus grande possible. faire précisément à cause du problème que vous avez.
Neil

1
N'oubliez pas que vous ne pouvez pas toujours changer le lecteur sur lequel un programme est installé (par exemple, MS Office) et que vous aurez peut-être besoin de plus d'espace que prévu initialement.
Nijin22

Réponses:


89

Dans mon travail, il y a près de deux décennies, les experts en informatique gardaient la taille de la partition principale de Windows (lecteur C) extrêmement petite comparée aux autres partitions. Ils argueraient que cela fait fonctionner PC à une vitesse optimale sans ralentir. [...] Ma question est cette pratique encore bonne?

En général: non .

Dans les anciennes versions de Windows, il existait des problèmes de performances avec les disques de grande taille (plus précisément: avec les systèmes de fichiers volumineux), principalement parce que le système de fichiers FAT utilisé par Windows ne supportait pas bien les systèmes de fichiers volumineux. Cependant, toutes les installations Windows modernes utilisent NTFS à la place, ce qui a résolu ces problèmes. Voir, par exemple, les performances NTFS se dégradent-elles de manière significative dans des volumes supérieurs à cinq ou six To? , ce qui explique que même les partitions de la taille d'un téraoctet ne posent généralement pas de problème.

De nos jours, il n’ya généralement aucune raison de ne pas utiliser une seule et grande partition C :. Le propre programme d’installation de Microsoft crée par défaut un seul grand disque C :. S'il y avait de bonnes raisons de créer une partition de données distincte, le programme d'installation l'offrirait - pourquoi Microsoft devrait-il vous laisser installer Windows de manière à créer des problèmes?

La principale raison contre les lecteurs multiples est que cela augmente la complexité - ce qui est toujours mauvais en informatique. Cela crée de nouveaux problèmes, tels que:

  • vous devez décider quels fichiers placer sur quel lecteur (et modifier les paramètres de manière appropriée, cliquer sur les éléments dans les programmes d'installation, etc.)
  • certains logiciels (mal écrits) peuvent ne pas aimer ne pas être placés sur un lecteur différent de C:
  • vous pouvez vous retrouver avec trop peu d'espace libre sur une partition, alors que l'autre dispose toujours d'espace libre, ce qui peut être difficile à corriger

Il y a des cas spéciaux où plusieurs partitions ont encore du sens:

  • Si vous souhaitez effectuer un double amorçage, vous avez (généralement) besoin de partitions distinctes pour chaque installation de système d'exploitation (mais toujours d'une seule partition par installation).
  • Si vous avez plusieurs lecteurs (en particulier des lecteurs dotés de caractéristiques différentes, tels que SSD et HD), vous pouvez choisir ce qui se passe où - dans ce cas, il peut être judicieux, par exemple, de placer le lecteur C: sur le SSD et D : sur le HD.

Pour répondre à certains arguments souvent avancés en faveur de petites partitions / partitions séparées:

  • les petites partitions sont plus faciles à sauvegarder

Quoi qu'il en soit, vous devriez vraiment sauvegarder toutes vos données, car leur fractionnement sur plusieurs partitions n'aide pas vraiment. En outre, si vous en avez vraiment besoin, tous les logiciels de sauvegarde que je connais vous permettent de sauvegarder de manière sélective une partie de la partition.

  • si une partition est endommagée, l'autre partition peut être ok

Bien que ce soit théoriquement vrai, rien ne garantit que les dommages se limiteront bien à une partition (et il est encore plus difficile à vérifier pour s'en assurer en cas de problème), ce qui ne fournit qu'une garantie limitée. De plus, si vous avez de bonnes sauvegardes redondantes, la sécurité supplémentaire est généralement trop petite pour en valoir la peine. Et si vous n'avez pas de sauvegardes, vous avez des problèmes bien plus importants ...

  • Si vous placez toutes les données utilisateur sur une partition de données, vous pouvez effacer et réinstaller / ne pas sauvegarder la partition de système d'exploitation car il n'y a aucune donnée utilisateur.

Bien que cela puisse être vrai en théorie, dans la pratique, de nombreux programmes écrivent les paramètres et d’autres données importantes sur le lecteur C: (parce qu’ils sont malheureusement codés en dur, ou parce que vous avez accidentellement oublié de modifier leurs paramètres). Par conséquent, à mon humble avis, il est très risqué de s’en remettre à cela. De plus, vous avez quand même besoin de bonnes sauvegardes (voir ci-dessus). Ainsi, après la réinstallation, vous pouvez restaurer les sauvegardes, ce qui vous donnera le même résultat (mais de manière plus sûre). Les versions modernes de Windows conservent déjà les données utilisateur dans un répertoire séparé (répertoire du profil utilisateur), ce qui permet une restauration sélective.


Voir aussi Allez-vous installer le logiciel sur la même partition que le système Windows? pour plus d'informations.


3
Plusieurs partitions sont également utiles si vous souhaitez déplacer les données utilisateur hors de C: \ en les dissociant de tout problème avec le système d'exploitation. Vous pourriez alors dire, installez un autre système d'exploitation à la place et vos données utilisateur resteront protégées (tant que la partition utilisateur ne sera pas supprimée)
Baldrickk

1
Vous souhaiterez peut-être effectuer une sauvegarde d'image pour votre partition système, alors qu'une simple sauvegarde de données pour toutes les autres partitions est suffisante.
Thomas

26
Le reste de votre réponse est bon, mais "l’installateur vous le permet" n’est pas un moyen valable de vérifier si quelque chose est bon ou non. Pourquoi le feraient-ils? Oubli, stupidité, paresse, ignorance, limitations techniques, gestion intermédiaire ... Il y a un million de raisons pour lesquelles l'installateur peut faire la mauvaise chose par défaut, sans parler de vous laisser faire la mauvaise. Cela s’applique doublement à un système aussi complexe que Windows.
Nic Hartley

2
Je me souviens de WinXP et de Win 7 permettant à l’utilisateur de créer plusieurs partitions et de définir la taille des partitions lors de l’installation. Je ne me souviens plus si c'est toujours le cas. MS est connu pour prendre de mauvaises décisions, apparemment sur un coup de tête, et les soutenir pendant des années avant de prendre une autre mauvaise décision pour "résoudre" le (non) problème. En outre, les utilisateurs techniques / artistiques qui doivent manipuler localement des fichiers volumineux ont souvent besoin de plus de lecteurs pour gérer le travail. Et: "la complexité augmente - ce qui est toujours mauvais en informatique", n’a que la moitié raison, en général. Mon raisonnement est hors sujet, alors je le laisse comme ça.
computercarguy

2
"Pourquoi Microsoft devrait-il vous laisser installer Windows de manière à créer des problèmes?" Parce que vous supposez que Microsoft vous laisse toujours, par défaut, utiliser la meilleure option optimisée?
Jonathan Drapeau

25

La raison historique de cette pratique est très probablement ancrée dans les propriétés de performance des disques durs magnétiques rotatifs. La zone sur les disques en rotation avec la vitesse d'accès séquentiel la plus élevée correspond aux secteurs les plus à l' extérieur (près du début du lecteur).

Si vous utilisez l'intégralité du disque pour votre système d'exploitation, tôt ou tard (par le biais de mises à jour, etc.), vos fichiers de système d'exploitation seront dispersés sur toute la surface du disque. Par conséquent, pour vous assurer que les fichiers du système d'exploitation restent physiquement dans la zone de disque la plus rapide, créez une petite partition système au début du lecteur et répartissez le reste du lecteur sur autant de partitions de données que vous le souhaitez.

La latence de recherche dépend également en partie de la distance à laquelle les têtes doivent se déplacer. Il est donc avantageux de garder tous les petits fichiers les uns à côté des autres, ce qui présente un avantage sur les disques en rotation.

Cette pratique a perdu toute raison avec l'avènement du stockage sur disque SSD.


1
Outre la perte de traction due aux disques SSD, les nouveaux disques SATA et SASS tournent beaucoup plus vite (7 200 et + 10 000 tr / min contre 5 400 tr / min) et ont un temps de récupération plus rapide que les anciens disques. Bien que la «question de vitesse» soit encore peu véridique, peu de personnes utilisant le matériel actuel remarqueraient en réalité une augmentation de la vitesse utilisant une petite partition sans logiciel d'analyse comparative.
computercarguy

6
"la vitesse d'accès la plus élevée sont les secteurs les plus profonds." , « Donc, pour vous assurer que les fichiers OS restent physiquement dans la zone de disque le plus rapide, vous devez créer une petite partition système au début du disque » - Non, vous avez à l'envers, tout comme cette question: superuser.com / questions / 643013 /… . De plus, votre affirmation de "raison historique" est douteuse. Avant que les disques ATAPI ne commencent à utiliser l’enregistrement par bit de zone, tous les disques durs précédents utilisaient l’enregistrement angulaire constant. Il n’y avait donc aucune différence de vitesse entre les cylindres.
Sciure de bois

3
@sawdust, la raison historique n'était pas la latence en lecture, mais la latence recherchée. La FAT étant stockée à l'adresse de piste la plus basse, la tête de disque devrait y retourner au moins chaque fois qu'un fichier est créé ou étendu. Avec les disques des années 1980, la différence de performance était mesurable. L'une des fonctionnalités de HPFS (ancêtre de NTFS) consistait à placer la MFT au milieu de la partition afin de réduire les temps de recherche moyens. Bien sûr, une fois que vous avez placé plusieurs partitions sur un disque, vous disposez de plusieurs zones FAT / MFT, la recherche n’est plus optimisée.
Grahamj42

@ grahamj42 - Non, vous avez toujours tort. Le temps de recherche est purement une fonction (non linéaire) de la distance de recherche, mesurée en nombre de cylindres. Le temps de recherche n’a aucun rapport avec les cylindres interne et externe, comme vous le prétendez. Vous ne savez pas ce que vous entendez par "latence de lecture" . Pour votre information, j'ai une expérience pratique des composants internes des unités de disque, des contrôleurs de disque et des microprogrammes des unités de disque. Et j’étais professionnellement actif avant et après la création de cette "histoire" dont vous parlez.
sciure de bois

1
@sawdust - Je suis désolé que vous m'ayez mal compris et la taille d'un commentaire a limité ce que je pouvais écrire. Sur une partition FAT, la tête doit se repositionner sur la FAT chaque fois qu'elle est mise à jour ou si le secteur FAT à lire n'est plus mis en cache, la probabilité de trouver la tête dans un cylindre externe est donc beaucoup plus élevée que celle trouvée dans un cylindre interne. cylindre, ce qui signifie que le temps moyen de recherche est inférieur. Je parle des entraînements par moteur pas à pas du début des années 80 (la ST-412 affichait une durée moyenne de recherche de 85 ms mais 3 ms pour un cylindre). Un lecteur moderne est environ 10 fois plus rapide.
Grahamj42

5

Y at-il une raison de garder la partition principale / lecteur C: petit de Windows?

Voici quelques raisons de le faire:

  1. Tous les fichiers système et le système d'exploitation lui-même se trouvent sur la partition principale. Il est préférable de garder ces fichiers séparés des autres logiciels, données personnelles et fichiers, tout simplement parce qu’interférer constamment dans la partition amorçable et y mélanger vos fichiers pourrait parfois occasionner des erreurs, comme la suppression accidentelle de fichiers système ou de dossiers. L'organisation est importante. C'est pourquoi la taille de la partition principale est faible, afin de dissuader les utilisateurs de stocker toutes leurs données.
  2. Sauvegardes - Il est beaucoup plus facile, rapide et efficace de sauvegarder et de restaurer une partition plus petite qu'une plus grande, en fonction de l'objectif du système. Comme indiqué par @computercarguy dans les commentaires, il est préférable de sauvegarder des dossiers et des fichiers spécifiques plutôt que de sauvegarder une partition entière, sauf en cas de besoin.
  3. Toutefois, cela pourrait améliorer les performances d’une manière à peine perceptible. Sur les systèmes de fichiers NTFS , il y a ce qu'on appelle des tables de fichiers maîtres sur chaque partition, et elles contiennent des métadonnées sur tous les fichiers de la partition:

    Décrit tous les fichiers du volume, y compris les noms de fichier, les horodatages, les noms de flux et les listes de numéros de grappes où résident les flux de données, les index, les identificateurs de sécurité et les attributs de fichier tels que "lecture seule", "compressé", "chiffré", etc.

Cela pourrait introduire un avantage, bien que cela ne se remarque pas, donc cela pourrait être ignoré, car cela ne fait vraiment pas une différence. La réponse de @WooShell est davantage liée au problème de performances, même si celui-ci est toujours négligeable.

Une autre chose à noter est que dans le cas d’un disque SSD + HDD, il est préférable de stocker votre système d’exploitation sur le SSD et tous vos fichiers / données personnels sur le disque dur. Vous n’auriez probablement pas besoin d’optimiser les performances d’un SSD pour la plupart de vos fichiers personnels et les disques SSD grand public n’ayant généralement pas beaucoup d’espace, vous préféreriez ne pas essayer de le remplir avec des fichiers personnels. .

Quelqu'un peut-il expliquer pourquoi cette pratique est pratiquée et est-elle toujours valable?

Décrit certaines des raisons pour lesquelles cela est fait. Et oui, il est toujours valable, même si ce n’est plus une bonne pratique. Les inconvénients les plus notables sont que les utilisateurs finaux devront savoir où les applications suggèrent d'installer leurs fichiers et de modifier cet emplacement (possible pendant l'installation de n'importe quel logiciel, en particulier si l'installation par un expert ou un utilisateur avancé est une option), de sorte que la partition amorçable ne Ne faites pas le plein, car le système d’exploitation doit parfois être mis à jour. Un autre inconvénient est que, lors de la copie de fichiers d’une partition à une autre, il est nécessaire de les copier. les méta-données, n'a pas besoin d'écrire à nouveau les fichiers entiers.

Certains d'entre eux peuvent malheureusement poser plus de problèmes:

  1. Cela augmente la complexité de la structure, ce qui rend la gestion plus difficile et plus longue.
  2. Certaines applications écrivent encore des fichiers / méta-données sur la partition système (associations de fichiers, menus contextuels, etc.), même si elles sont installées sur une autre partition. Cela rend donc plus difficile la sauvegarde et peut entraîner des échecs de synchronisation entre les partitions. (merci au commentaire de @ Bob)

Pour éviter le problème que vous rencontrez, vous devez:

  1. Essayez toujours d'installer des applications sur les autres partitions (changez l'emplacement d'installation par défaut).
  2. Assurez-vous d'installer uniquement les logiciels importants dans votre partition de démarrage. Les autres logiciels non essentiels et sans importance doivent être conservés en dehors de celui-ci.

Je ne dis pas non plus que la meilleure idée est d’avoir plusieurs partitions avec une petite partition principale. Tout dépend de l’objet du système. Même s’il offre une meilleure façon d’organiser vos fichiers, il présente toutefois des inconvénients, qui sur les systèmes Windows actuels sont bien plus que des avantages.

Remarque: Et comme vous l'avez dit vous-même, les données contenues dans des partitions distinctes sont protégées en cas de défaillance de la partition amorçable.


1
"Par conséquent, une partition plus petite avec une table de fichiers maître plus petite effectuera des recherches plus rapides et améliorera les performances d'un disque dur." Citation requise - serverfault.com/questions/222110/…, par exemple, indique que même les gros volumes ne posent aucun problème.
Sleske

1
"Bien sûr, de nombreux développeurs de logiciels ont la mauvaise pratique de suggérer aux utilisateurs finaux d’installer leur application dans la partition principale. Mais d’une manière générale, ce n’est pas une bonne idée." - citation nécessaire
gronostaj

5
"Lorsque les tables de fichiers maîtres stockent des informations sur tous les fichiers d’une partition, lorsqu’elles effectuent des actions sur l’un des fichiers de cette partition, elles parcourent toute la table." Oh, absolument pas. Une telle déclaration ne peut être faite qu'en ignorant presque complètement le fonctionnement des systèmes de fichiers et l'organisation du stockage sur disque en général. Si cela était vrai, alors toute opération impliquant la MFT se dégraderait linéairement (ou pire!) Avec la taille de la MFT, et cela ne se produit pas.
Jamie Hanrahan

1
"puisque le système d'exploitation n'effectue pas autant d'opérations de lecture / écriture que les autres logiciels" . Si votre système d'exploitation est Windows, il effectue de nombreuses opérations R / W sur le disque d'installation. Beaucoup d'entre eux. Si vous utilisez IE ou Edge, il est installé avec Windows (ne pensez pas que vous pouvez spécifier où il est installé, même si je me trompe peut-être), et cela met en cache une tonne de choses pendant que j'écris ce commentaire.
FreeMan

2
"Il est préférable de garder ces fichiers [OS] séparés des autres logiciels" - Non. Le problème avec cette approche est que beaucoup de logiciels maintiennent le statut d'installation (et les programmes de désinstallation) avec le système d'exploitation. Un grand nombre de logiciels s'enregistre également avec diverses parties du système d'exploitation - associations de fichiers, entrées de menu contextuel, rendus de prévisualisation, etc. L'installation du logiciel lui-même dans une partition séparée n'empêche pas cela; il se contente de les répartir sur deux partitions. Ce qui est pire que de les garder ensemble: vous avez maintenant ajouté le risque que les deux partitions ne soient plus synchronisées lors des sauvegardes.
Bob

4

Je suis un développeur de logiciels, mais j'ai également passé du temps à effectuer des tâches informatiques "régulières" / de back-office. Je conserve généralement le système d'exploitation et les applications sur le lecteur C: et mes fichiers personnels sur le lecteur D :. Ceux-ci ne doivent pas nécessairement être des disques physiques distincts, mais j'utilise actuellement un disque SSD relativement petit comme disque "système" (C :) et un disque "traditionnel" (c'est-à-dire avec des plateaux magnétiques rotatifs) comme disque "domestique". conduire (D :).

Tous les systèmes de fichiers sont sujets à la fragmentation. Avec les disques SSD, cela n’est fondamentalement pas un problème, mais le problème persiste avec les lecteurs de disque traditionnels.

J'ai constaté que la fragmentation pouvait dégrader considérablement les performances du système. Par exemple, j’ai constaté qu’une version complète d’un grand projet logiciel s’était améliorée de plus de 50% après la défragmentation de mon lecteur. En outre, la version en question prenait environ une heure. Ce n’était donc pas une différence anodine.

Garder mes fichiers personnels sur un volume distinct fait, j'ai trouvé:

  • le volume du système n'est pas fragmenté presque aussi rapidement (ou gravement);
  • il est beaucoup plus rapide de défragmenter les deux volumes distincts qu’un volume unique contenant tout le contenu - chaque volume prend entre 20% et 25% aussi longtemps que le volume combiné.

Je l'ai observé sur plusieurs générations de PC, avec plusieurs versions de Windows.

(Comme l'a souligné un intervenant, cela facilite également la création de sauvegardes.)

Je dois noter que les outils de développement que j'utilise tendent à générer un grand nombre de fichiers temporaires, qui semblent contribuer de manière significative au problème de la fragmentation. La gravité de ce problème variera donc en fonction du logiciel que vous utilisez. vous ne remarquerez peut-être pas une différence ou autant d'une différence. (Mais il existe d'autres activités - par exemple la composition et l'édition vidéo / audio - qui nécessitent beaucoup d'E / S et qui, en fonction du logiciel utilisé, peuvent générer un grand nombre de fichiers temporaires / intermédiaires. Mon objectif est de ne pas écrire. ceci comme quelque chose qui n'affecte qu'une classe d'utilisateurs.)

Mise en garde: avec les nouvelles versions de Windows (à partir de 8), cela est devenu beaucoup plus difficile, car les dossiers des utilisateurs situés sur un volume autre que C: ne sont plus officiellement pris en charge. Je peux vous dire que je ne pouvais pas effectuer de mise à niveau sur place de Windows 7 vers Windows 10, mais en mode YMMV (il existe différentes manières de [repasser] un dossier d’utilisateur, je ne sais pas lesquels sont affectés) .

Remarque supplémentaire: si vous conservez deux volumes distincts sur un lecteur traditionnel, vous pouvez configurer un fichier de page sur le volume D :. Pour les raisons décrites dans la réponse de WooShell, cela réduira le temps de recherche lors de l'écriture dans le fichier d'échange.


Pour moi, c'est juste que C: peut être réinstallé, où tout sur D: doit être sauvegardé
Mawg

Avec les disques SSD, la fragmentation des métadonnées est toujours un problème car cela signifie davantage de commandes de lecture / écriture pour le même travail. Bien que l'impact soit encore incomparablement plus petit que pour les entraînements en rotation.
ivan_pozdeev

4

Réponse courte: plus maintenant.

D'après mon expérience (plus de 20 ans de travail d'administration informatique), la principale raison de cette pratique (les autres sont énumérées ci-dessous) est que les utilisateurs ne font généralement pas confiance à Windows avec leurs données et leur espace disque.

Il est notoire que Windows a toujours eu du mal à rester stable dans le temps, à nettoyer en profondeur, à préserver la santé de la partition système et à fournir un accès pratique aux données utilisateur qui s'y trouvent. Les utilisateurs préféraient donc rejeter la hiérarchie du système de fichiers fournie par Windows et se débrouiller en dehors de celle-ci. La partition système a également agi comme un ghetto pour empêcher Windows de faire des dégâts en dehors de ses limites.

  • De nombreux produits, y compris ceux de Microsoft, ne se désinstallent pas proprement et / ou ne causent pas de problèmes de compatibilité et de stabilité (la manifestation la plus importante est constituée de fichiers restants, d'entrées de registre et de DLL Hell.dans toutes ses incarnations). De nombreux fichiers créés par le système d'exploitation ne sont pas nettoyés par la suite (journaux, mises à jour de Windows, etc.), ce qui entraîne que le système d'exploitation occupe de plus en plus d'espace au fil du temps. Sous Windows 95 et même sous XP, les conseils allaient jusqu'à suggérer une réinstallation propre du système d'exploitation de temps en temps. La réinstallation du système d’exploitation nécessitait une capacité à garantir l’effacement du système d’exploitation et de sa partition (afin de nettoyer également les données erronées du système de fichiers) - impossible sans plusieurs partitions. Et diviser le disque sans perdre de données n’est possible qu’avec des programmes spécialisés (qui peuvent avoir leurs propres mauvaises surprises, telles que la sauvegarde et le maintien des données dans un état inutilisable s’ils rencontrent un secteur défectueux). Divers programmes de "nettoyage" ont atténué le problème, mais, leur logique étant basée sur l'ingénierie inverse et le comportement observé,RegCleanutilitaire par MS lui-même a été désactivé après la publication d'Office 2007 qui avait cassé les hypothèses relatives au registre sur lequel il était basé). Le fait que de nombreux programmes sauvegardaient leurs données à des emplacements arbitraires rendait encore plus difficile la séparation des données utilisateur et système d'exploitation, obligeant les utilisateurs à installer des programmes en dehors de la hiérarchie des systèmes d'exploitation.
    • Microsoft a essayé plusieurs méthodes pour améliorer la stabilité, avec plus ou moins de succès ( DLL partagées , Protection de fichier Windows et son successeur TrustedInstaller, sous-système Side-by-Side , un référentiel séparé pour les modules .NET avec une structure de stockage empêchant les conflits de versions et de fournisseurs. ). Les dernières versions de Windows Installer ont même une vérification rudimentaire des dépendances (probablement le dernier gestionnaire de paquets majeur en général à utiliser cette fonctionnalité).
    • En ce qui concerne la conformité des logiciels tiers aux meilleures pratiques, ils ont manœuvré pour maintenir la compatibilité avec des logiciels mal écrits mais suffisamment utilisés (sinon, les utilisateurs ne passeraient pas à une nouvelle version de Windows), ce qui a entraîné une quantité époustouflante de Remèdes et solutions de contournement dans le système d'exploitation, y compris le comportement non documenté des API, l' application en mode correctif de programmes tiers pour y corriger des bugs et quelques niveaux de virtualisation de registre et de système de fichiers - et pour forcer les fournisseurs tiers à se conformer à des mesures telles qu'un logo de certification programme et un programme de signature du conducteur (rendu obligatoire à partir de Vista).
  • Les données utilisateur étant enfouies sous un long chemin sous le profil de l'utilisateur, il était difficile de rechercher et de spécifier des chemins d'accès. Les chemins utilisaient également des noms longs , des espaces (un fléau de commandes shells partout) et des caractères nationaux (un problème majeur pour les langages de programmation, à l'exception des langages très récents disposant d'un support Unicode complet), spécifiques à la localisation (!) Et impossibles à obtenir sans accès Winapi. (!!) (tuant toute tentative d'internationalisation dans les scripts), ce qui n'a pas non plus aidé.
    Donc, avoir vos données dans le répertoire racine d'un lecteur séparé était considéré comme une structure de données plus pratique que celle fournie par Windows.
    • Cela n'a été corrigé que dans les versions les plus récentes de Windows. Les chemins eux-mêmes ont été corrigés dans Vista, compactant les noms longs, éliminant les espaces et les noms localisés. Le problème de navigation a été corrigé dans Win7 qui fournissait des entrées dans le menu Démarrer pour la racine du profil utilisateur et la plupart des autres répertoires, ainsi que des dossiers tels que les dossiers persistants "Favoris" dans les boîtes de dialogue de sélection de fichiers, avec des valeurs par défaut judicieuses telles que Downloads, pour éviter la nécessité de parcourir pour eux à chaque fois.
  • Au bout du compte, les efforts de MS ont porté leurs fruits. Depuis que Win7, les logiciels d’exploitation, les logiciels stockés et les logiciels tiers, y compris les utilitaires de nettoyage, sont stables et suffisamment sains, et les disques durs suffisamment volumineux pour que le système d’exploitation ne nécessite pas de réinstallation pendant toute la durée de vie d’un poste de travail typique. Et la hiérarchie des stocks est suffisamment utilisable et accessible pour l’accepter et l’utiliser dans la pratique quotidienne.

Les raisons secondaires sont:

  • Les premiers logiciels (prise en charge du système de fichiers et du partitionnement dans le BIOS et les systèmes d'exploitation) étaient en retard sur les disques durs pour la prise en charge de gros volumes de données, ce qui nécessitait de scinder un disque dur en plusieurs parties pour pouvoir utiliser sa pleine capacité.
    • C’était principalement un problème sous DOS et Windows 95. Avec l'avènement de FAT32 (Windows 98) et de NTFS (Windows NT 3.1), le problème était en grande partie résolu pour le moment.
    • La barrière des 2 To apparue récemment a été corrigée par la dernière génération de systèmes de fichiers ( ext4 et versions récentes de NTFS ), de disques GPT et 4k .
  • Diverses tentatives pour optimiser les performances. La lecture des données des pistes externes (qui correspondent aux secteurs de départ) par rapport aux disques internes est légèrement plus rapide (environ 1,5 fois) que celle des pistes internes, ce qui suggère de localiser les fichiers fréquemment utilisés, tels que les bibliothèques de système d'exploitation et les fichiers d'échange, au début du disque.
    • Étant donné que les données utilisateur sont également très souvent consultées et que le repositionnement de la tête a un impact encore plus important sur les performances, en dehors de charges de travail très spécifiques, l'amélioration de l'utilisation réelle est au mieux marginale.
  • Plusieurs disques physiques. Il s'agit d'une configuration inhabituelle pour un poste de travail puisqu'un disque dur moderne est souvent suffisamment grand et que les ordinateurs portables ne disposent même pas d'espace pour un deuxième disque dur. La plupart des stations, si ce n’est toutes les stations que j’ai vu avec cette configuration, sont des ordinateurs de bureau qui utilisent des disques durs plus anciens qui sont toujours opérationnels et s’ajoutent à la taille requise. Dans le cas contraire, un RAID doit être utilisé ou l’un des disques doit contenir sauvegardes et ne pas être utilisé régulièrement.
    • C’est probablement le seul cas où le fractionnement du système et des données en volumes distincts procure un réel avantage: étant donné qu’ils sont physiquement sur des matériels différents, ils sont accessibles en parallèle (à moins que ce ne soit deux disques PATA sur le même câble) et qu’il n’existe aucune performance. appuyer sur le repositionnement de la tête lors du basculement entre eux.
      • Pour réutiliser la structure de répertoires Windows, je passe généralement C:\Userssur le lecteur de données. Déplacer un seul profil ou même juste Documents, Downloadset Desktops'est avéré être inférieur aux autres parties du profil et Publicpeut également croître de manière incontrôlable (voir la configuration «Configuration et données séparées» ci-dessous).
    • Bien que les disques puissent être regroupés dans un volume fractionné , je ne l’utilise ni ne le recommande car les volumes dynamiques sont une technologie propriétaire avec laquelle les outils tiers ont du mal à fonctionner et parce que si l’un des disques tombe en panne, tout le volume est perdu.
  • Un M.2 SSD + HDD.
    • Dans ce cas, je recommande plutôt d'utiliser SSD uniquement en tant que cache: de cette façon, vous bénéficiez d'un SSD pour l'ensemble de votre ensemble de données plutôt que d'une partie quelconque de celle-ci, et ce qui est accéléré est déterminé automatiquement par ce que vous avez réellement. accès dans la pratique.
    • Dans tous les cas, cette configuration dans un ordinateur portable est inférieure à un seul SSD, car les disques durs sont également intolérants aux chocs et aux vibrations externes, qui sont des phénomènes bien réels pour les ordinateurs portables.
  • Scénarios de double démarrage. En règle générale, deux systèmes d'exploitation ne peuvent pas coexister sur une même partition. C’est le seul scénario que je connaisse qui garantisse plusieurs partitions sur un poste de travail. Et les cas d’utilisation de ce type sont de plus en plus rares de nos jours car chaque poste de travail est maintenant assez puissant pour exécuter des ordinateurs virtuels.
  • Sur les serveurs, il existe un certain nombre d'autres scénarios valides, mais aucun d'entre eux ne s'applique au domaine de super utilisateur.
    • Par exemple, il est possible de séparer les données persistantes (programmes et configuration) des données modifiées (données et journaux de l'application) pour empêcher une application emballée de casser tout le système. Il existe également divers besoins spéciaux (par exemple, dans un système intégré, les données persistantes résident souvent sur une mémoire EEPROM pendant que des données de travail sont stockées sur un lecteur RAM). Le système de hiérarchie des systèmes de fichiers de Linux se prête bien à de tels ajustements.

3

Il y a près de deux décennies, la gamme de produits Windows 98 à XP, y compris NT4 et 2000, aurait dominé.

Tous les disques durs seraient également des systèmes de stockage magnétiques câblés PATA ou SCSI, les disques SSD coûtant plus cher que l’ordinateur et le SATA n’existant pas.

Comme le dit la réponse de WooShell, les secteurs logiques inférieurs du lecteur (en dehors du plateau) ont tendance à être les plus rapides. Mes disques Velociraptor 1 To WDC démarrent à 215 Mo / s, mais descendent à 125 Mo / s dans les secteurs extérieurs, soit une baisse de 40%. Et il s’agit d’un lecteur de plateau de 2,5 ", de sorte que la plupart des lecteurs de 3,5" subissent généralement une baisse de performance de plus en plus importante , supérieure à 50% . C’est la raison principale pour garder la partition principale petite, mais elle ne s’applique que lorsque la partition est petite par rapport à la taille du lecteur.

L'autre raison principale de garder la partition petite était si vous utilisiez FAT32 en tant que système de fichiers, qui ne supportait pas les partitions supérieures à 32 Go. Si vous utilisiez NTFS, les partitions jusqu’à 2 To étaient prises en charge avant Windows 2000, puis 256 To.

Si votre partition était trop petite par rapport à la quantité de données à écrire, il est plus facile de la fragmenter et de la défragmenter. De vous pouvez tout simplement manquer d'espace comme ce qui vous est arrivé. Si vous avez trop de fichiers par rapport à la taille de la partition et du cluster, la gestion de la table des fichiers peut s'avérer problématique et peut affecter les performances. Si vous utilisez des volumes dynamiques pour la redondance, conserver les volumes redondants aussi petits que nécessaire économisera de l'espace sur les autres disques.

Aujourd'hui, les choses sont différentes, le stockage client est dominé par les SSD flash ou les lecteurs magnétiques à accélération flash. Le stockage est généralement abondant et il est facile d’en ajouter d’autres sur un poste de travail, alors qu’aujourd’hui, vous n’aviez peut-être qu’une seule connexion de lecteur inutilisée pour des périphériques de stockage supplémentaires.

Alors, est-ce toujours une bonne idée ou cela présente-t-il un avantage? Cela dépend des données que vous conservez et de la façon dont vous les gérez. Mon poste de travail C: n’est que de 80 Go, mais l’ordinateur lui-même dispose de plus de 12 To de stockage réparti sur plusieurs lecteurs. Chaque partition contient uniquement un certain type de données et la taille du cluster correspond au type de données et à la taille de la partition, ce qui maintient la fragmentation proche de 0 et empêche la taille trop grande de la MFT.

Le problème, c'est qu'il y a de l'espace inutilisé, mais que les performances augmentent plus que compenser, et si je veux plus de stockage, j'ajoute plus de disques. C: contient le système d'exploitation et les applications fréquemment utilisées. P: contient des applications moins fréquemment utilisées et constitue un disque SSD de 128 Go avec un indice de durabilité en écriture inférieur à celui de C :. T: se trouve sur un disque SSD SLC plus petit et contient des fichiers temporaires d'utilisateur et de système d'exploitation, y compris le cache du navigateur. Les fichiers vidéo et audio sont stockés sur stockage magnétique, de même que les images de machine virtuelle, les sauvegardes et les données archivées, qui ont généralement une taille de cluster de 16 Ko ou supérieure, et l'accès en lecture / écriture est dominé par un accès séquentiel. Je n'effectue la défragmentation qu'une fois par an sur des partitions avec un volume d'écriture élevé. Le système complet prend environ 10 minutes.

Mon ordinateur portable ne contient qu'un seul disque SSD de 128 Go et un cas d'utilisation différent. Je ne peux donc pas faire la même chose, mais je me sépare toujours en 3 partitions, C: (OS et programmes de 80 Go), T: (8 Go de temp) et F: ( 24 Go de fichiers utilisateur), ce qui permet de contrôler la fragmentation sans gaspiller d’espace et que l’ordinateur portable sera remplacé bien avant que je manque d’espace. Cela facilite également beaucoup la sauvegarde, car F: contient les seules données importantes qui changent régulièrement.


Cependant ma question dit, notre expert en informatique "encore" le faire car je rencontre le même problème en ce moment.
hk_

Notez que depuis Vista, Windows conserve automatiquement les fichiers système souvent utilisés sur les secteurs extérieurs (si possible). C'est l'une des principales raisons pour lesquelles les vitesses de démarrage ont tellement augmenté: l'ensemble de la séquence de démarrage, y compris les applications de démarrage, est généralement lu de manière séquentielle à partir du lecteur, à l'endroit où il est le plus rapide. Bien sûr, à moins que vous ayez bâclé les partitions: les SSD P continuent néanmoins à vous aider énormément, même pour leur débit plus élevé.
Luaan

2
@hk_ le simple fait que votre expert informatique continue de faire des choses par habitude ne signifie pas que les vérités fondamentales de cette habitude datant de 20 ou 15 (voire 5) années sont toujours valables de nos jours. Si vous étiez britannique et que vous continuiez à conduire du côté gauche de la route par habitude lorsque vous passiez en Europe continentale, vous seriez dans un monde de souffrances. Par exemple, "parce que je l'ai toujours fait ainsi" n'est pas une bonne raison de continuer à faire quelque chose.
FreeMan

@ FreeMan, je ne le supporte pas. J'avais des doutes d'où ma question.
hk_

3

J'avais l'habitude de travailler en informatique, et voici ce que je sais et dont je me souviens.

Dans le passé, comme d’autres l’ont dit, le fait d’avoir une petite partition C au début du disque présentait un réel avantage. Même aujourd'hui, dans certains ordinateurs portables de bas de gamme, cela pourrait encore être vrai. Essentiellement, en ayant une partition plus petite, vous avez moins de fragmentation et en la gardant au début du disque, vous avez une meilleure recherche et donc des temps de lecture. Ceci est encore valable aujourd'hui avec les ordinateurs portables (généralement) et les disques durs «verts» plus lents.

Un autre grand avantage que j'utilise encore aujourd'hui est d'avoir «données» et «os» sur des disques séparés, ou si je ne peux pas gérer ces partitions séparées. Il n’ya pas de réelle augmentation de la vitesse si vous utilisez un disque SSD, ou même des disques magnétiques plus rapides, mais il existe une énorme option de «réparation facile» lorsque le système d’exploitation finit par se remplir. Il suffit d’échanger le lecteur ou de rediffuser cette partition. Les données de l'utilisateur sont intactes. Lorsqu'il est correctement configuré, la réinstallation de Windows entre un lecteur D: et "Profils itinérants" est un problème qui ne dure pas 5 minutes. Cela en fait un bon premier pas pour une technologie de niveau 1.


Je ne suis pas sûr que "la première étape pour un technicien de niveau 1" serait de réinstaller Windows, quelle que soit sa rapidité. Je pense que la réinstallation du système d'exploitation devrait presque toujours être une option de dernier recours. Tant de petites choses étranges pourraient se briser si vous supprimez l'installation du système d'exploitation sous toutes les applications installées et la remplacez par une autre (bien que très similaire). Par exemple, qu'advient-il des entrées de registre spécifiques à l'application qui ne sont pas dans HKCU?
Aaron M. Eshbach

1
Ils sont également effacés, ce qui signifie que vous pouvez également exclure les problèmes de configuration.
coteyr

2

Voici une raison, mais je ne crois pas que ce soit une raison valable pour les ordinateurs (modernes) d'aujourd'hui.

Cela remonte à Windows 95/98 et XT. Cela ne s'applique probablement pas à Vista et aux versions ultérieures, mais il s'agissait d'une limitation matérielle; par conséquent, l'exécution d'un système d'exploitation plus récent sur un ancien matériel devrait toujours être gérée par cette limitation.

Je crois que la limitation était de 2 Go, mais il aurait pu y avoir une limite de 1 Go (ou peut-être d'autres) plus tôt.

Le problème était (quelque chose comme) ceci: la partition BOOT devait être dans les premiers 2 Go (peut-être 1 Go plus tôt) de l'espace physique sur le lecteur. Cela aurait pu être que 1) le démarrage de la partition BOOT devait être dans les limites de la limite, ou 2) la partition de démarrage ENTIER devait être dans les limites de la limite. Il est possible que chacun de ces cas ait été appliqué à des moments différents, mais si le cas n ° 2 était appliqué, la durée de vie était probablement courte, alors je suppose que c'est le cas n ° 1.

Donc, avec # 1, le démarrage de la partition BOOT devait se situer dans les 2 premiers Go d'espace physique. Cela n'empêcherait pas la création d'une grande partition pour le système d'exploitation / démarrage. Mais le problème était dual / multi boot. S'il semblait possible de vouloir amorcer le lecteur à la fois en mode double ou multiple, il devait y avoir un espace disponible en dessous de 2 Go pour créer d'autres partitions amorçables sur le lecteur. Comme il se peut qu’au moment de l’installation, le lecteur ait besoin d’une autre partition de démarrage, par exemple, Linix, ou d’une partition de débogage / résolution de problèmes / récupération récupérable, il était souvent recommandé (et souvent sans savoir pourquoi) de procéder à l’installation sur un disque. "Partition de démarrage du système d'exploitation.


2

Je me demande si votre service informatique, vieux de plusieurs décennies, était préoccupé par la sauvegarde. C: étant une partition de démarrage / système d’exploitation, il est courant d’utiliser un type de sauvegarde d’image, mais pour une partition de données / programme, une sauvegarde incrémentielle de fichier + dossier peut être utilisée. La réduction de l'espace utilisé dans la partition C: réduirait le temps et l'espace nécessaires à la sauvegarde d'un système.


Un commentaire sur mon utilisation personnelle de la partition C :. J'ai un système multi-boot incluant Win 7 et Win 10 et je n'ai pas de système d'exploitation sur la partition C: seulement les fichiers de démarrage. J'utilise la sauvegarde d'image système Windows pour Win 7 et Win 10, et la sauvegarde d'image système Windows inclut toujours la partition C: (de démarrage), en plus de la partition Win 7 ou Win 10, c'est donc un autre scénario dans lequel la réduction du les données et les programmes sur la partition C: réduisent le temps et l'espace nécessaires à la sauvegarde (ou à la restauration si nécessaire) de l'image système.


Je laisse cette section dans ma réponse à cause des commentaires ci-dessous.

Étant donné que mon système est en mode de démarrage multiple, le redémarrage sous un système d'exploitation différent simplifie la sauvegarde des partitions de données / programmes, car les partitions ne sont pas actives pendant leur sauvegarde. J'ai écrit un programme de sauvegarde simple qui fait une copie de dossier + fichier ainsi que des informations de sécurité et d'analyse, mais cela ne fonctionne pas très bien pour les partitions Win 7 ou Win 10, donc j'utilise une sauvegarde d'image système pour C ;, Win 7. et Win 10 partitions OS.


3
...quoi? Les outils et méthodes permettant de sauvegarder la partition système ne manquent pas. De plus, votre système de sauvegarde maison échouera probablement pour les projets complexes, car il ne gère pas les cas courants de fichiers liés de manière permanente (SxS s'appuie fortement sur cela), les points de jonction (là encore, le système d'exploitation principal), partiellement fichiers écrits (VSS le gère), fichiers verrouillés (encore une fois, VSS), etc.
Bob

Je peux probablement nommer une demi-douzaine de logiciels différents - Veem, Macrium, Acronis, Symentec Ghost ... qui font cela. La plupart d'entre eux utilisent également des mécanismes intégrés à l'arrière-plan.
Compagnon Geek

Je lance veeam, sauvegardé sur un disque externe, mais je cours tous les jours. Il existe encore quelques pièces mobiles pour les sauvegardes de sauvegarde, mais vous n'avez certainement pas besoin de procéder à une défragmentation manuelle ou à une sauvegarde hors ligne.
Compagnon Geek

En ce qui concerne les sauvegardes complètes de partitions en ligne, presque tout utilise VSS pour obtenir un instantané à un moment précis (sinon, vous rencontrez des problèmes lorsque vous sauvegardez, par exemple, un fichier de base de données partiellement écrit, puis sauvegardez le journal de la base de données après la sauvegarde. la lecture du fichier est terminée). Disk2vhd est l'exemple le plus trivial; Des suites plus complètes comme Acronis gèrent en outre les images différentielles / incrémentielles.
Bob

@Bob - Je ne lance mon programme qu'après avoir redémarré sous un autre système d'exploitation. Par conséquent, aucune partition en cours de sauvegarde n'est active, ce qui évite le problème instantané de la sauvegarde d'une partition active. Cela revient à démarrer à partir d'un CD-ROM pour exécuter un utilitaire de création d'image de disque afin de "cloner" un disque dur (ce que j'ai fait il y a longtemps lorsque j'ai remplacé tous mes disques durs).
rcgldr

2

Non, pas avec Windows et ses principales suites logicielles insistant sur les liens avec System: malgré leur installation dans Programmes: (C'est une nécessité institutionnalisée de la façon dont la plupart des systèmes d'exploitation sont construits.) Un volume Data: est logique, mais un disque amovible séparé pour vos données (ou NAS, ou des sauvegardes sélectives ou incrémentielles sur un tel disque amovible) le devient encore plus.

Le partitionnement pour des systèmes multi-systèmes d'exploitation a également du sens, mais chaque partition vous oblige à sélectionner une limite de stockage maximale stricte. Généralement, c'est mieux avec des disques séparés, même dans ce cas.

Et aujourd'hui, les machines virtuelles et les disques en nuage complètent bon nombre de ces choix.


2

Il y a une raison particulière: utiliser des instantanés de volume.

Un instantané de volume est une sauvegarde de la partition entière. Lorsque vous restaurez à partir de ce type de sauvegarde, vous réécrivez toute la partition, rétablissant ainsi le système à son état précédent.

Un administrateur système peut créer régulièrement de tels instantanés en prévision de tout type d’échec logiciel. Ils peuvent même les stocker sur une autre partition du même lecteur. C'est pourquoi vous voulez que la partition système soit relativement petite.

Lors de l'utilisation de ce schéma, les utilisateurs sont invités à stocker leurs données sur le lecteur réseau. En cas de problème logiciel, un administrateur système peut simplement restaurer le système en état de fonctionnement. Ce serait extrêmement rapide de comparer et de résoudre manuellement les problèmes posés par le problème.


0

Je programme depuis près d'un demi-siècle. Une autre réponse indique historique et une autre réponse longue indique Plusieurs disques physiques .

Je tiens à souligner que plusieurs disques physiques sont probablement ce qui a commencé la recommandation. Il y a plus d'un demi-siècle, à l'époque où les partitions n'existaient pas, il était extrêmement courant d'utiliser un lecteur physique distinct pour le système. La raison principale en est le mouvement physique des têtes et la rotation des pulsions. Ces avantages n'existent pas pour les partitions lorsque le lecteur physique est souvent utilisé pour autre chose.

Notez également qu'Unix sépare le système et les données en partitions séparées. Comme il a été expliqué dans de nombreuses autres réponses, il existe de nombreuses bonnes raisons de le faire, mais pour les performances, des disques physiques distincts constituent la principale justification.


-1

La raison pour laquelle nous faisions 2 partitions était due à des virus. Certains virus remplacent le secteur de démarrage et le début du disque.

Les sauvegardes sur les ordinateurs des utilisateurs se réduisaient à une copie du programme complet sur une disquette. (En réalité une non-sauvegarde)

Ainsi, lorsqu'un virus "dévore" le début du disque, seul le système doit être réinstallé.

Et s'il n'y avait pas de sauvegardes, la récupération des données était plus facile si la seconde partition était intacte.

Donc, si vous avez des sauvegardes, cette raison n'est pas valide.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.