Gibt es einen Grund, die primäre Partition / das primäre Laufwerk C von Windows klein zu halten?

70

Bei meinen Jobs vor fast zwei Jahrzehnten haben IT-Experten die Größe der Windows-Hauptpartition (Laufwerk C) im Vergleich zu den anderen Partitionen extrem klein gehalten. Sie würden argumentieren, dass dieser PC mit optimaler Geschwindigkeit läuft, ohne sich zu verlangsamen.

Der Nachteil ist jedoch, dass das Laufwerk C: leicht voll wird, wenn es klein gehalten wird. Bald können Sie keine neue Software mehr installieren, da der Speicherplatz knapp wird. Selbst wenn ich Software auf Laufwerk D: installiere, wird ein Teil davon immer nach C: kopiert, wodurch es voll wird.

Meine Frage ist diese Praxis noch gut? Warum wird es gemacht? Was sind die Hauptvorteile, wenn überhaupt? Eine offensichtliche ist, wenn die primäre Partition abstürzt, sind Ihre Daten in der sekundären sicher.

Der Grund, warum ich diese Frage stelle, ist, dass ich versuche, Visual Studio zu aktualisieren, und nicht, weil ich nur noch 24 MB in der primären Partition habe.

hk_
quelle
2
Was meinst du mit "Größe der Hauptpartition klein (wie 100 GB)"? 100GB ist bei den meisten Maßen nicht "klein"? Meinen Sie "kleiner als das ganze Laufwerk"? Und mit "Hauptpartition" ist die Partition gemeint, in der sich das Dateisystem für Windows-Laufwerk C: befindet? Und was soll der Screenshot erklären, den Sie gepostet haben? Es zeigt nur eine volle Fahrt ... Bitte bearbeiten, um zu klären.
Sleske
10
100 GB mögen nicht klein erscheinen, aber heutzutage füllt große Software dies ziemlich schnell aus, wie in meinem Fall. Hauptpartition = Primärpartition = Startpartition. Screenshot zeige meinen primären Partitian (Laufwerk c :) und stelle fest, dass nur noch 24 MB übrig sind. Mein D: ist 90 GB frei und E: ist 183 GB frei.
HK_
1
Ich habe mir erlaubt, Ihre Frage zu bearbeiten, um sie zu klären. In Zukunft ist es am besten, wenn Sie Ihre Frage direkt bearbeiten, um Informationen hinzuzufügen. Kommentare werden möglicherweise entfernt und nicht von allen gelesen.
Sleske
28
Ich würde behaupten, diese "Experten" waren damals falsch und sind jetzt falsch. Ich bin mir sicher, dass es Fälle gibt, in denen ein kleines C: -Laufwerk nützlich sein könnte / gewesen wäre, aber für die Mehrheit der normalen Benutzer (einschließlich Entwickler) ist die Standardeinstellung, eine einzelne C: -Partition mit der größtmöglichen Größe zu haben, das Beste genau wegen des Problems, das Sie haben, zu tun.
Neil
1
Denken Sie daran, dass Sie das Laufwerk, auf dem ein Programm installiert ist (z. B. MS Office), nicht immer ändern können und möglicherweise mehr Speicherplatz als ursprünglich geplant benötigen.
Nijin22

Antworten:

89

Bei meinen Jobs vor fast zwei Jahrzehnten haben IT-Experten die Größe der Windows-Hauptpartition (Laufwerk C) im Vergleich zu den anderen Partitionen extrem klein gehalten. Sie würden argumentieren, dass dieser PC mit optimaler Geschwindigkeit läuft, ohne sich zu verlangsamen. [...] Meine Frage ist diese Praxis noch gut?

Im Allgemeinen: Nein .

In älteren Windows-Versionen gab es Leistungsprobleme bei großen Laufwerken (genauer: bei großen Dateisystemen), hauptsächlich weil das von Windows verwendete FAT- Dateisystem große Dateisysteme nicht gut unterstützte. Alle modernen Windows-Installationen verwenden jedoch stattdessen NTFS, wodurch diese Probleme behoben wurden. Siehe zum Beispiel. Verschlechtert sich die NTFS-Leistung bei Volumes mit mehr als fünf oder sechs TB erheblich? Dies erklärt, dass selbst Partitionen in Terabyte-Größe normalerweise kein Problem darstellen.

Heutzutage gibt es im Allgemeinen keinen Grund, keine einzige große C: -Partition zu verwenden. Das Microsoft-eigene Installationsprogramm erstellt standardmäßig ein einzelnes, großes C: -Laufwerk. Wenn es gute Gründe gäbe, eine separate Datenpartition zu erstellen, würde das Installationsprogramm diese anbieten - warum sollte Microsoft Sie Windows so installieren lassen, dass Probleme entstehen?

Der Hauptgrund gegen mehrere Laufwerke liegt in der zunehmenden Komplexität - was in der IT immer schlecht ist. Es entstehen neue Probleme wie:

  • Sie müssen entscheiden, welche Dateien auf welches Laufwerk kopiert werden sollen (und die Einstellungen entsprechend ändern, in den Installationsprogrammen klicken usw.).
  • Manche (schlecht geschriebene) Software wird möglicherweise nicht gerne auf ein anderes Laufwerk als C kopiert:
  • Es kann sein, dass auf einer Partition zu wenig freier Speicherplatz vorhanden ist, während auf der anderen Partition noch freier Speicherplatz vorhanden ist. Dies kann schwierig zu beheben sein

Es gibt einige Sonderfälle, in denen mehrere Partitionen immer noch sinnvoll sind:

  • Wenn Sie dual booten möchten, benötigen Sie (normalerweise) separate Partitionen für jede Betriebssysteminstallation (aber immer noch nur eine Partition pro Installation).
  • Wenn Sie mehr als ein Laufwerk haben (insbesondere Laufwerke mit unterschiedlichen Eigenschaften wie SSD und HD), möchten Sie möglicherweise auswählen, was wohin soll. In diesem Fall kann es sinnvoll sein, z. B. Laufwerk C: auf SSD und D zu platzieren : auf der HD.

Um einige Argumente anzusprechen, die häufig für kleine / separate Partitionen vorgebracht werden:

  • Kleine Partitionen sind einfacher zu sichern

Sie sollten auf jeden Fall alle Ihre Daten wirklich sichern, da eine Aufteilung auf mehrere Partitionen nicht wirklich hilfreich ist. Wenn Sie dies wirklich tun müssen, können Sie mit jeder mir bekannten Sicherungssoftware einen Teil einer Partition selektiv sichern.

  • Wenn eine Partition beschädigt ist, ist die andere möglicherweise noch in Ordnung

Obwohl dies theoretisch zutrifft, gibt es keine Garantie, dass sich Schäden auf eine Partition beschränken (und es ist noch schwieriger, dies im Falle von Problemen zu überprüfen), so dass dies nur eine begrenzte Garantie bietet. Wenn Sie über gute, redundante Backups verfügen, ist die zusätzliche Sicherheit normalerweise zu gering, um die Mühe wert zu sein. Und wenn Sie keine Backups haben, haben Sie viel größere Probleme ...

  • Wenn Sie alle Benutzerdaten auf einer Datenpartition ablegen, können Sie die Betriebssystempartition löschen und neu installieren / nicht sichern, da dort keine Benutzerdaten vorhanden sind

Während dies theoretisch der Fall sein mag, schreiben in der Praxis viele Programme Einstellungen und andere wichtige Daten auf Laufwerk C: (weil sie dies leider fest codiert haben oder weil Sie versehentlich vergessen haben, ihre Einstellungen zu ändern). Daher ist es meiner Meinung nach sehr riskant, sich darauf zu verlassen. Außerdem benötigen Sie ohnehin gute Backups (siehe oben), sodass Sie nach der Neuinstallation die Backups wiederherstellen können, wodurch Sie dasselbe Ergebnis erzielen (nur sicherer). In modernen Windows-Versionen werden Benutzerdaten bereits in einem separaten Verzeichnis (Benutzerprofilverzeichnis) gespeichert, sodass eine selektive Wiederherstellung möglich ist.


Siehe auch Installieren Sie die Software auf derselben Partition wie das Windows-System? für mehr Informationen.

sleske
quelle
3
Mehrere Partitionen sind auch dann sinnvoll, wenn Sie Benutzerdaten aus C: \ verschieben möchten, um sie von (m) Problemen mit dem Betriebssystem zu entkoppeln. Sie könnten dann sagen, installieren Sie ein anderes Betriebssystem an seiner Stelle und Ihre Benutzerdaten bleiben sicher (solange die Benutzerpartition nicht gelöscht wird)
Baldrickk
1
Möglicherweise möchten Sie eine Imagesicherung für Ihre Systempartition durchführen, während eine einfache Datensicherung für alle anderen Partitionen ausreicht.
Thomas
26
Der Rest Ihrer Antwort ist gut, aber "das Installationsprogramm lässt Sie das tun" ist keine gültige Methode, um zu überprüfen, ob etwas gut ist oder nicht. Warum sollten sie es tun? Vergesslichkeit, Dummheit, Faulheit, Unwissenheit, technische Einschränkungen, die mittlere Management ... Es gibt eine Million Gründe , das Installationsprogramm möglicherweise die falsche Sache standardmäßig tun, geschweige denn nur lassen Sie die falsche Sache zu tun. Das gilt doppelt für ein so komplexes System wie Windows.
Nic Hartley
2
Ich erinnere mich an WinXP und Win 7, mit denen der Benutzer während der Installation mehrere Partitionen erstellen und die Größe der Partitionen festlegen kann. Ich erinnere mich jedoch nicht mehr, ob dies der Fall ist. MS ist dafür bekannt, dass sie aus einer Laune heraus schlechte Entscheidungen trifft und sie jahrelang unterstützt, bevor sie eine weitere schlechte Entscheidung trifft, um das (Nicht-) Problem zu "beheben". Außerdem benötigen technische Benutzer, die große Dateien lokal bearbeiten müssen, häufig mehr Laufwerke, um die Arbeit zu erledigen. Und: "Steigert die Komplexität - was in der IT immer schlecht ist", stimmt im Allgemeinen nur zur Hälfte. Meine Argumentation ist nicht thematisch, also lasse ich es.
Computercarguy
2
"Warum sollte Microsoft Sie Windows so installieren lassen, dass Probleme entstehen?" Weil Sie davon ausgehen, dass Microsoft Sie standardmäßig immer die beste und optimierte Option verwenden lässt?
Jonathan Drapeau
25

Der historische Grund für diese Vorgehensweise liegt höchstwahrscheinlich in den Leistungseigenschaften rotierender magnetischer Festplatten. Der Bereich auf sich drehenden Festplatten mit der höchsten sequentiellen Zugriffsgeschwindigkeit sind die äußersten Sektoren (nahe dem Start des Laufwerks).

Wenn Sie das gesamte Laufwerk für Ihr Betriebssystem verwenden, werden Ihre Betriebssystemdateien früher oder später (durch Aktualisierungen usw.) auf der gesamten Festplattenoberfläche verteilt. Um sicherzustellen, dass die Betriebssystemdateien physisch im schnellsten Festplattenbereich verbleiben, erstellen Sie am Anfang des Laufwerks eine kleine Systempartition und verteilen den Rest des Laufwerks auf beliebig viele Datenpartitionen.

Die Suchlatenz hängt zum Teil auch davon ab, wie weit sich die Köpfe bewegen müssen. Daher hat es bei Rotationsantrieben auch einen Vorteil, alle kleinen Dateien etwas dicht beieinander zu halten.

Diese Praxis hat mit dem Aufkommen des SSD-Speichers alle Vernunft verloren.

WooShell
quelle
1
Neuere SATA- und SASS-Laufwerke verlieren nicht nur aufgrund von SSDs an Traktion, sondern drehen sich auch viel schneller (7200 und +10.000 U / min gegenüber 5400 U / min) und haben schnellere Suchzeiten als alte Laufwerke. Während das "Geschwindigkeitsproblem" immer noch eine minimale Wahrheit ist, würden nicht viele Leute, die die heutige Hardware verwenden, einen Geschwindigkeitsanstieg bei Verwendung einer kleinen Partition ohne Benchmarking-Software bemerken.
Computercarguy
6
"Die höchste Zugriffsgeschwindigkeit sind die innersten Sektoren." , „Also, um sicherzustellen , dass die OS - Dateien physisch in dem schnellsten Plattenbereich bleiben, können Sie eine kleine Systempartition am Anfang des Laufwerks schaffen würden“ - Nein, Sie haben es nach hinten, so wie diese Frage: superuser.com / questions / 643013 /… . Auch Ihre Behauptung der "historischen Vernunft" ist zweifelhaft. Bis ATAPI-Laufwerke mit Zonen-Bit-Aufzeichnung begannen, verwendeten alle bisherigen Festplatten eine Aufzeichnung mit konstantem Winkel, sodass zwischen den Zylindern kein nennenswerter Geschwindigkeitsunterschied bestand.
Sägemehl
3
@sawdust, der historische Grund war nicht Latenz gelesen, sondern Latenz suchen. Die FAT wurde an der niedrigsten Spuradresse gespeichert, so dass der Plattenkopf mindestens jedes Mal, wenn eine Datei erstellt oder erweitert wurde, dorthin zurückkehren musste. Bei Disketten der 1980er Jahre war der Leistungsunterschied messbar. Eines der Konstruktionsmerkmale von HPFS (Vorgänger von NTFS) bestand darin, die MFT in die Mitte der Partition zu platzieren, um die durchschnittlichen Suchzeiten zu verringern. Wenn Sie mehrere Partitionen auf einer Festplatte speichern, verfügen Sie natürlich über mehrere FAT / MFT-Zonen, sodass die Suche nicht mehr optimiert ist.
Grahamj42
@ grahamj42 - Nein, du liegst immer noch falsch. Die Suchzeit ist eine reine (nichtlineare) Funktion der Suchentfernung, die in der Anzahl der Zylinder gemessen wird. Wie Sie behaupten, hat die Suchzeit nichts mit inneren und äußeren Zylindern zu tun. Ich bin mir nicht sicher, was Sie unter "Leselatenz" verstehen . Zu Ihrer Information Ich habe Erfahrungen aus erster Hand mit Laufwerksinternen, Laufwerkscontrollern und Laufwerksfirmware, dh dieses Wissen wurde nicht nur durch Lesen erlernt. Vor und nach der Entstehung dieser "Geschichte", auf die Sie sich beziehen, war ich beruflich tätig .
Sägemehl
1
@sawdust - Es tut mir leid, dass Sie mich missverstanden haben und die Größe eines Kommentars das einschränkte, was ich schreiben konnte. Auf einer FAT-Partition muss der Kopf bei jeder Aktualisierung in der FAT neu positioniert werden, oder wenn der zu lesende FAT-Sektor nicht mehr zwischengespeichert wird, ist die Wahrscheinlichkeit, den Kopf in einem äußeren Zylinder zu finden, viel höher als in einem inneren Zylinder, was bedeutet, dass die durchschnittliche Suchzeit geringer ist. Ich spreche von den Schrittmotorantrieben der frühen 80er Jahre (der ST-412 hatte eine durchschnittliche Suchzeit von 85 ms, aber 3 ms für einen Zylinder). Ein moderner Antrieb ist ungefähr 10x schneller.
Grahamj42
5

Gibt es einen Grund, die primäre Partition / das primäre Laufwerk C von Windows klein zu halten?

Hier sind einige Gründe, dies zu tun:

  1. Alle Systemdateien und das Betriebssystem selbst befinden sich auf der primären Partition. Es ist besser, diese Dateien von anderer Software, persönlichen Daten und Dateien getrennt zu halten, da ein ständiges Einmischen in die bootfähige Partition und das Mischen Ihrer Dateien gelegentlich zu Fehlern führen kann, z. B. das versehentliche Löschen von Systemdateien oder Ordnern. Organisation ist wichtig. Aus diesem Grund ist die Größe der primären Partition niedrig - um Benutzer davon abzuhalten, alle ihre Daten dort abzulegen.
  2. Backups - es ist viel einfacher, schneller und effektiver, eine kleinere Partition als eine größere zu sichern und wiederherzustellen, abhängig vom Zweck des Systems. Wie von @computercarguy in den Kommentaren erwähnt, ist es besser, bestimmte Ordner und Dateien zu sichern, als eine ganze Partition zu sichern, sofern dies nicht erforderlich ist.
  3. Es könnte jedoch die Leistung kaum merklich verbessern. Auf NTFS- Dateisystemen gibt es auf jeder Partition die sogenannten Master File Tables , die Metadaten zu allen Dateien auf der Partition enthalten:

    Beschreibt alle Dateien auf dem Volume, einschließlich Dateinamen, Zeitstempel, Streamnamen und Listen von Clusternummern, in denen sich Datenströme befinden, Indizes, Sicherheitskennungen und Dateiattribute wie "schreibgeschützt", "komprimiert", "verschlüsselt" usw.

Dies kann einen Vorteil mit sich bringen, der jedoch nicht bemerkt werden kann. Daher kann dies ignoriert werden, da es wirklich keinen Unterschied macht. @ WooShells Antwort bezieht sich eher auf das Leistungsproblem, obwohl es immer noch vernachlässigbar ist.

Eine andere Sache, die zu beachten ist , ist, dass es im Falle einer SSD + HDD viel besser ist, Ihr Betriebssystem auf der SSD und alle Ihre persönlichen Dateien / Daten auf der HDD zu speichern. Sie benötigen wahrscheinlich keine Leistungssteigerung durch eine SSD für die meisten Ihrer persönlichen Dateien, und auf Solid-State-Laufwerken für Privatanwender ist normalerweise nicht viel Speicherplatz vorhanden. Sie sollten daher lieber nicht versuchen, sie mit persönlichen Dateien zu füllen .

Kann jemand erklären, warum diese Praxis gemacht wird und ist sie noch gültig?

Beschrieb einige der Gründe, warum es getan wird. Und ja, es ist immer noch gültig, obwohl es anscheinend keine gute Praxis mehr ist. Die bemerkenswertesten Nachteile sind, dass Endbenutzer verfolgen müssen, wo Anwendungen vorschlagen, ihre Dateien zu installieren und diesen Speicherort zu ändern (dies ist während fast jeder Softwareinstallation möglich, insbesondere wenn eine Experten- / erweiterte Installation möglich ist), sodass die bootfähige Partition nicht funktioniert. ' Es muss nicht voll sein, da das Betriebssystem gelegentlich aktualisiert werden muss. Ein weiterer Nachteil ist, dass beim Kopieren von Dateien von einer Partition auf eine andere diese tatsächlich kopiert werden müssen. Wenn sich die Dateien in derselben Partition befinden, werden lediglich die MFT und aktualisiert Die Metadaten müssen nicht die gesamten Dateien erneut schreiben.

Einige davon können leider weitere Probleme verursachen:

  1. Dies erhöht die Komplexität der Struktur, wodurch die Verwaltung schwieriger und zeitaufwendiger wird.
  2. Einige Anwendungen schreiben weiterhin Dateien / Metadaten auf die Systempartition (Dateizuordnungen, Kontextmenüs usw.), auch wenn sie auf einer anderen Partition installiert sind. Dies erschwert die Sicherung und kann zu Fehlern bei der Synchronisierung zwischen Partitionen führen. (Danke an @ Bobs Kommentar)

Um das Problem zu vermeiden, müssen Sie:

  1. Versuchen Sie immer, Anwendungen auf den anderen Partitionen zu installieren (ändern Sie den Standardinstallationspfad).
  2. Stellen Sie sicher, dass Sie nur wichtige Software auf Ihrer bootfähigen Partition installieren. Andere nicht so benötigte und unwichtige Software sollte außerhalb davon aufbewahrt werden.

Ich sage auch nicht, dass es die beste Idee ist, mehrere Partitionen mit einer kleinen primären zu haben. Es hängt alles vom Zweck des Systems ab, und obwohl es eine bessere Möglichkeit zum Organisieren Ihrer Dateien bietet, hat es auch Nachteile, die auf Windows-Systemen heutzutage mehr sind als die Vorteile.

Hinweis: Und wie Sie bereits erwähnt haben, werden die Daten, die sich in separaten Partitionen befinden, im Falle eines Ausfalls der bootfähigen Partition sicher aufbewahrt.

Fanatique
quelle
1
"Daher führt eine kleinere Partition mit einer kleineren Masterdateitabelle schnellere Suchvorgänge durch und verbessert die Leistung einer Festplatte." Zitierpflichtig - serverfault.com/questions/222110/… zeigt beispielsweise an, dass selbst große Volumes heutzutage kein Problem darstellen.
sleske
1
"Natürlich haben viele Softwareentwickler die schlechte Praxis, Endbenutzern vorzuschlagen, ihre Anwendung auf der primären Partition zu installieren. Aber im Allgemeinen ist dies keine gute Idee." - Zitat benötigt
gronostaj
5
"Da Masterdateitabellen Informationen zu allen Dateien auf einer Partition speichern, wird beim Ausführen von Aktionen für alle Dateien auf dieser Partition die gesamte Tabelle durchsucht." Oh, das tut es absolut nicht. Eine solche Aussage kann nur in völliger Unkenntnis darüber getroffen werden, wie Dateisysteme funktionieren und wie die Speicherorganisation im Allgemeinen erfolgt. Wenn dies zutrifft, würde sich die Leistung einer Operation, die die MFT betrifft, linear (oder schlimmer!) Mit der Größe der MFT verschlechtern, und dies geschieht pauschal nicht.
Jamie Hanrahan
1
"da das Betriebssystem nicht so viele Lese- / Schreibvorgänge ausführt wie andere Software" . Wenn Ihr Betriebssystem Windows ist, führt es viele R / W-Vorgänge auf der Installationsdiskette aus. Viele von ihnen. Wenn Sie IE oder Edge verwenden, wird es als Teil von Windows installiert (denken Sie nicht, dass Sie angeben können, wo es installiert wird, obwohl ich mich möglicherweise irre), und das zwischenspeichert eine Menge Dinge, während ich diesen Kommentar schreibe.
FreeMan
2
"Es ist besser, diese [OS] -Dateien von anderer Software zu trennen" - Nein. Das Problem bei diesem Ansatz besteht darin, dass viele Softwareprogramme den Installationsstatus (und Deinstallationsprogramme) des Betriebssystems beibehalten. Eine Menge Software registriert sich auch bei verschiedenen Teilen des Betriebssystems - Dateizuordnungen, Kontextmenüeinträgen, Vorschau-Renderern usw. Das Installieren der Software selbst in einer separaten Partition verhindert dies nicht. Sie werden lediglich auf zwei Partitionen verteilt. Was schlimmer ist, als sie zusammenzuhalten - Sie haben jetzt das Risiko hinzugefügt, dass die beiden Partitionen in Backups nicht mehr synchron sind.
Bob
4

Ich bin ein Softwareentwickler, habe aber auch Zeit mit "normaler" / Back-Office-IT-Arbeit verbracht. Ich behalte normalerweise das Betriebssystem und die Anwendungen auf Laufwerk C: und meine persönlichen Dateien auf Laufwerk D :. Dies müssen nicht unbedingt separate physische Laufwerke sein, aber derzeit verwende ich eine relativ kleine SSD als "System" -Laufwerk (C :) und ein "traditionelles" Festplattenlaufwerk (dh mit rotierenden Magnetplatten) als "Zuhause". fahren (D :).

Alle Dateisysteme sind fragmentiert. Bei SSDs ist dies im Grunde kein Problem, bei herkömmlichen Festplatten ist dies jedoch immer noch ein Problem.

Ich habe festgestellt, dass Fragmentierung die Systemleistung erheblich beeinträchtigen kann. Ich habe zum Beispiel festgestellt, dass ein vollständiger Build eines großen Softwareprojekts nach der Defragmentierung meines Laufwerks um über 50% verbessert wurde - und der betreffende Build dauerte fast eine Stunde, sodass dies kein unbedeutender Unterschied war.

Wenn ich meine persönlichen Dateien auf einem separaten Datenträger aufbewahre, habe ich festgestellt:

  • Das Systemvolumen wird nicht annähernd so schnell (oder stark) fragmentiert.
  • Das Defragmentieren der beiden separaten Volumes ist viel schneller als bei einem einzelnen Volume mit allem, was darauf gespeichert ist. Jedes Volume benötigt 20% bis 25%, so lange das kombinierte Volume benötigt.

Ich habe dies auf mehreren PC-Generationen mit mehreren Windows-Versionen beobachtet.

(Ein Kommentator wies darauf hin, dass dies auch das Erstellen von Backups erleichtert.)

Ich sollte beachten, dass die von mir verwendeten Entwicklungstools dazu neigen, eine große Anzahl temporärer Dateien zu generieren, die anscheinend einen wesentlichen Beitrag zur Fragmentierung leisten. Der Schweregrad dieses Problems hängt also von der verwendeten Software ab. Möglicherweise bemerken Sie keinen oder nur einen geringen Unterschied. (Aber es gibt auch andere Aktivitäten - zum Beispiel Video / Audio-Komposition und -Bearbeitung -, die E / A-intensiv sind und je nach verwendeter Software eine große Anzahl von temporären Dateien / Zwischendateien erzeugen können. Mein Punkt ist, nicht schreiben Dies wirkt sich nur auf eine Benutzerklasse aus.)

Vorsichtsmaßnahme: Mit neueren Windows-Versionen (ab 8) ist dies sehr viel schwieriger geworden, da Benutzerordner auf einem anderen Volume als C: nicht mehr offiziell unterstützt werden. Ich kann Ihnen sagen, dass ich kein direktes Upgrade von Windows 7 auf Windows 10 durchführen konnte, aber YMMV (es gibt verschiedene Möglichkeiten, einen Benutzerordner [neu] zu finden, ich weiß nicht, welche davon betroffen sind). .

Ein zusätzlicher Hinweis: Wenn Sie zwei separate Volumes auf einem herkömmlichen Laufwerk verwalten, möchten Sie möglicherweise eine Auslagerungsdatei auf dem Volume D: einrichten. Aus den in der Antwort von WooShell beschriebenen Gründen wird die Suchzeit beim Schreiben in die Auslagerungsdatei verkürzt.

David
quelle
Für mich ist es nur so, dass C: neu installiert werden kann, wo alles auf D: gesichert werden muss
Mawg
Bei SSDs ist die Fragmentierung von Metadaten immer noch ein Problem, da dies mehr Lese- / Schreibbefehle für denselben Job bedeutet. Die Wirkung ist jedoch immer noch unvergleichlich geringer als bei Rotationsantrieben.
ivan_pozdeev
4

Kurze Antwort: Nicht mehr.

Nach meiner Erfahrung (über 20 Jahre IT-Adminship-Arbeit) ist der Hauptgrund für diese Vorgehensweise (andere sind unten aufgeführt), dass Benutzer Windows im Grunde genommen nicht mit ihren Daten und ihrem Festplattenspeicher vertraut haben.

Windows hat sich lange Zeit als notorisch schlecht erwiesen, wenn es darum ging, im Laufe der Zeit stabil zu bleiben, sich selbst zu säubern, die Systempartition intakt zu halten und bequem auf Benutzerdaten zuzugreifen. Daher zogen es die Benutzer vor, die von Windows bereitgestellte Dateisystemhierarchie abzulehnen und ihre eigene außerhalb dieser zu rollen. Die Systempartition fungierte auch als Ghetto, um Windows die Möglichkeit zu verweigern, außerhalb ihrer Grenzen Chaos anzurichten.

  • Es gibt viele Produkte, einschließlich der von Microsoft, die nicht sauber deinstalliert werden und / oder Kompatibilitäts- und Stabilitätsprobleme verursachen (die auffälligste Manifestation sind übrig gebliebene Dateien und Registrierungseinträge in der Umgebung und DLL Hellin all seinen Inkarnationen). Viele vom Betriebssystem erstellte Dateien (Protokolle, Windows-Updates usw.) werden anschließend nicht bereinigt, was dazu führt, dass das Betriebssystem mit der Zeit immer mehr Speicherplatz beansprucht. In der Ära von Windows 95 und sogar XP ging der Rat so weit, dass hin und wieder eine Neuinstallation des Betriebssystems vorgeschlagen wurde. Die Neuinstallation des Betriebssystems erforderte die Fähigkeit, das Löschen des Betriebssystems und seiner Partition zu gewährleisten (um auch falsche Daten im Dateisystem zu bereinigen) - unmöglich ohne mehrere Partitionen. Das Aufteilen des Laufwerks ohne Datenverlust ist nur mit speziellen Programmen möglich (die böse Überraschungen mit sich bringen können, z. B. die Rettung und den unbrauchbaren Zustand von Daten, wenn ein fehlerhafter Sektor festgestellt wird). Verschiedene "Aufräum" -Programme haben das Problem gelindert, aber ihre Logik basiert auf Reverse Engineering und beobachtetem Verhalten.RegCleanDas Dienstprogramm von MS selbst wurde nach der Veröffentlichung von Office 2007 abgebrochen, wodurch Annahmen über die zugrunde liegende Registrierung verletzt wurden. Die Tatsache, dass viele Programme ihre Daten an beliebigen Orten gespeichert haben, machte die Trennung von Benutzer- und Betriebssystemdaten noch schwieriger, sodass Benutzer Programme auch außerhalb der Betriebssystemhierarchie installieren konnten.
    • Microsoft hat verschiedene Möglichkeiten zur Verbesserung der Stabilität mit unterschiedlichem Erfolg ausprobiert ( gemeinsam genutzte DLLs , Windows File Protection und sein Nachfolger TrustedInstaller, Side-by-Side-Subsystem , ein separates Repository für .NET-Module mit Speicherstruktur, das Versions- und Herstellerkonflikte verhindert ). Die neuesten Versionen von Windows Installer verfügen sogar über eine rudimentäre Abhängigkeitsprüfung (wahrscheinlich der letzte große Paketmanager, der diese Funktion im Allgemeinen enthält).
    • In Bezug auf die Einhaltung der Best Practices durch Software von Drittanbietern wurde zwischen der Aufrechterhaltung der Kompatibilität mit schlampig geschriebener, aber ausreichend verwendeter Software (andernfalls würden die Benutzer nicht auf eine neue Windows-Version aktualisieren) unterschieden Kludges und Workarounds im Betriebssystem, einschließlich undokumentiertem API-Verhalten, Live-Patching von Programmen von Drittanbietern zur Behebung von Fehlern und ein paar Ebenen der Registry- und Dateisystemvirtualisierung - und zwingen Drittanbieter dazu, Maßnahmen wie ein Zertifizierungslogo einzuhalten Programm und ein Fahrersignaturprogramm (ab Vista obligatorisch).
  • Benutzerdaten, die unter einem langen Pfad im Benutzerprofil vergraben waren, machten es unpraktisch, nach Pfaden zu suchen und diese anzugeben. Die Pfade verwendeten auch lange Namen , hatten Leerzeichen (eine Fluch von Befehlsshells überall) und nationale Zeichen (ein Hauptproblem für Programmiersprachen, mit Ausnahme von neueren, die umfassende Unicode-Unterstützung bieten) und waren länderspezifisch (!) Und ohne Winapi-Zugriff nicht erhältlich (!!) (jegliche Internationalisierungsbemühungen in Skripten zu töten), was ebenfalls nichts half.
    Wenn sich Ihre Daten also im Stammverzeichnis eines separaten Laufwerks befinden, ist dies eine praktischere Datenstruktur als die von Windows bereitgestellte.
    • Dies wurde nur in sehr aktuellen Windows-Versionen behoben. Die Pfade selbst wurden in Vista korrigiert, indem lange Namen komprimiert, Leerzeichen und lokalisierte Namen entfernt wurden. Das Browsing-Problem wurde in Win7 behoben, das Startmenü-Einträge sowohl für das Stammverzeichnis des Benutzerprofils als auch für die meisten anderen darunter befindlichen Verzeichnisse und Dinge wie dauerhafte "Favoriten" -Ordner in Dateiauswahldialogen mit sinnvollen Standardeinstellungen wie Downloadszum Speichern der Notwendigkeit des Browsens bereitstellte für sie jedes Mal.
  • Insgesamt haben die Bemühungen der MS am Ende Früchte getragen. Es ist anzunehmen, dass das Betriebssystem sowie die Software von Drittanbietern, einschließlich Bereinigungsdienstprogrammen, seit Win7 stabil genug sind, dass das Betriebssystem während der gesamten Lebensdauer einer typischen Workstation keine Neuinstallation erfordert. Und die Bestandshierarchie ist nutzbar und zugänglich genug, um sie tatsächlich zu akzeptieren und in der täglichen Praxis zu verwenden.

Sekundäre Gründe sind:

  • Frühe Software (Dateisystem- und Partitionsunterstützung in BIOS und Betriebssystemen) blieb bei der Unterstützung großer Datenmengen hinter den Festplatten zurück, sodass die Festplatte in Teile aufgeteilt werden musste, um die volle Kapazität nutzen zu können.
    • Dies war vor allem unter DOS und Windows 95 ein Problem. Mit dem Aufkommen von FAT32 (Windows 98) und NTFS (Windows NT 3.1) wurde das Problem vorerst weitgehend gelöst.
    • Die 2TB Barriere , die ich in letzter Zeit durch die jüngste Generation von Dateisystemen (Fest wurde ext4 und neuere Versionen von NTFS ), GPT und 4k Platten .
  • Verschiedene Versuche zur Leistungsoptimierung. Rotationsfestplatten sind beim Lesen von Daten von äußeren Spuren (die den Startsektoren zugeordnet sind) geringfügig (etwa 1,5-mal) schneller als die inneren, was darauf hindeutet, häufig aufgerufene Dateien wie Betriebssystembibliotheken und Auslagerungsdateien am Anfang der Festplatte zu suchen.
    • Da auf Benutzerdaten auch sehr oft zugegriffen wird und die Neupositionierung des Kopfes einen noch größeren Einfluss auf die Leistung hat, ist die Verbesserung der realen Nutzung, abgesehen von sehr spezifischen Arbeitslasten, bestenfalls marginal.
  • Mehrere physische Festplatten. Dies ist eine ungewöhnliche Konfiguration für eine Workstation, da eine moderne Festplatte häufig für sich genommen ausreichend groß ist und auf Laptops nicht einmal Platz für eine zweite Festplatte vorhanden ist. Bei den meisten, wenn nicht allen Stationen, die ich mit diesem Setup gesehen habe, handelt es sich um Desktops, die ältere Festplatten (wieder) verwenden, die noch betriebsbereit sind und sich auf die erforderliche Größe summieren - andernfalls sollte entweder ein RAID verwendet werden oder eines der Laufwerke sollte halten Backups und nicht in regelmäßigem Gebrauch sein.
    • Dies ist wahrscheinlich der einzige Fall, in dem das Aufteilen von System und Daten in separate Volumes einen echten Gewinn bringt: Da sie sich physisch auf unterschiedlicher Hardware befinden, kann auf sie parallel zugegriffen werden (es sei denn, es handelt sich um zwei PATA-Laufwerke mit demselben Kabel), und es gibt keine Leistung Drücken Sie auf den Kopf, wenn Sie zwischen ihnen wechseln.
      • Um die Windows - Verzeichnisstruktur wiederverwenden, ich typicaly bewegen , C:\Usersum das Datenlaufwerk. Umzug nur ein einzelnes Profil oder auch nur Documents, Downloadsund Desktoperwies sich als Cuz andere Teile des Profils minderwertig‘zu sein , und Publicauch unkontrollierbar (die‚getrennte Konfiguration und Daten‘Setup unten) wachsen kann.
    • Obwohl die Festplatten zu einem übergreifenden Volume zusammengefasst werden können , verwende oder empfehle ich dies nicht, da es sich bei Dynamic Volumes um eine proprietäre Technologie handelt, mit der Tools von Drittanbietern Probleme haben, und da das gesamte Volume verloren geht, wenn eines der Laufwerke ausfällt.
  • Eine M.2 SSD + HDD.
    • In diesem Fall empfehle ich eher, SSD ausschließlich als Cache zu verwenden: Auf diese Weise erhalten Sie den Vorteil einer SSD für Ihr gesamtes Datenarray und nicht nur für einen beliebigen Teil davon, und die Beschleunigung wird automatisch von Ihrer tatsächlichen Leistung bestimmt Zugang in der Praxis.
    • In jedem Fall ist diese Konfiguration in einem Laptop einer einzelnen SSD unterlegen, da Festplatten auch unempfindlich gegen Erschütterungen und Vibrationen von außen sind, die bei Laptops sehr häufig auftreten.
  • Dual-Boot-Szenarien. Im Allgemeinen können zwei Betriebssysteme nicht gleichzeitig auf einer Partition vorhanden sein. Dies ist das einzige mir bekannte Szenario, das mehrere Partitionen auf einer Workstation garantiert. Und Use Cases dafür sind heutzutage ohnehin selten, da jede Workstation jetzt leistungsfähig genug ist, um VMs auszuführen.
  • Auf Servern gibt es eine Reihe anderer gültiger Szenarien - aber keines davon gilt für die Domäne des Super Users.
    • ZB kann man persistente Daten (Programme und Konfiguration) von sich ändernden Daten (App-Daten und Protokolle) trennen, um zu verhindern, dass eine außer Kontrolle geratene App das gesamte System zerstört. Es gibt auch verschiedene spezielle Anforderungen (z. B. in einem eingebetteten System befinden sich dauerhafte Daten häufig in einem EEPROM, während Arbeitsdaten auf einem RAM-Laufwerk gespeichert sind). Der Dateisystem-Hierarchie-Standard von Linux eignet sich gut für solche Optimierungen.
ivan_pozdeev
quelle
3

Vor fast zwei Jahrzehnten hätte die Bandbreite von Windows 98 bis XP dominiert, einschließlich NT4 und 2000 auf der Workstation- / Serverseite.

Alle Festplatten wären auch PATA- oder SCSI-verkabelte Magnetspeicher, da SSDs mehr kosten als der Computer und SATA nicht vorhanden ist.

Wie die Antwort von WooShell besagt, sind die unteren logischen Sektoren auf dem Laufwerk (außerhalb des Plattentellers) in der Regel die schnellsten. Meine Velociraptor-Laufwerke mit 1 TB WDC starten mit 215 MB / s, fallen aber in den äußeren Sektoren auf 125 MB / s ab, was einem Rückgang von 40% entspricht. Und dies ist ein 2,5-Zoll-Plattenlaufwerk, sodass die Leistung der meisten 3,5-Zoll-Laufwerke im Allgemeinen um mehr als 50% abnimmt . Dies ist der Hauptgrund dafür, dass die Hauptpartition klein bleibt. Dies gilt jedoch nur, wenn die Partition im Verhältnis zur Größe des Laufwerks klein ist.

Der andere Hauptgrund, die Partition klein zu halten, war, wenn Sie FAT32 als Dateisystem verwendeten, das Partitionen mit mehr als 32 GB nicht unterstützte. Wenn Sie NTFS verwendeten, wurden Partitionen mit bis zu 2 TB vor Windows 2000 und bis zu 256 TB unterstützt.

Wenn Ihre Partition im Verhältnis zur Menge der zu schreibenden Daten zu klein war, ist es einfacher, sie zu fragmentieren und schwieriger zu defragmentieren. Von dir kann gerade aus dem Weltraum rennen, wie was mit dir passiert ist. Wenn Sie im Verhältnis zur Partitions- und Clustergröße zu viele Dateien hatten, kann die Verwaltung der Dateitabelle problematisch sein und die Leistung beeinträchtigen. Wenn Sie aus Redundanzgründen dynamische Volumes verwenden , können Sie durch die Reduzierung der redundanten Volumes Speicherplatz auf den anderen Datenträgern sparen.

Heutzutage ist das anders, der Client-Speicher wird von Flash-SSDs oder Flash-beschleunigten Magnetlaufwerken dominiert. Speicher ist im Allgemeinen ausreichend vorhanden, und es ist einfach, einer Workstation mehr Speicher hinzuzufügen, während Sie in den PATA-Tagen möglicherweise nur eine einzige unbenutzte Laufwerksverbindung für zusätzliche Speichergeräte hatten.

Ist das also immer noch eine gute Idee oder hat sie irgendeinen Nutzen? Das hängt davon ab, welche Daten Sie speichern und wie Sie sie verwalten. Meine Workstation C: hat nur 80 GB, aber der Computer selbst verfügt über deutlich mehr als 12 TB Speicher, der auf mehrere Laufwerke verteilt ist. Jede Partition enthält nur einen bestimmten Datentyp, und die Clustergröße entspricht sowohl dem Datentyp als auch der Partitionsgröße, wodurch die Fragmentierung nahe 0 bleibt und die MFT nicht unangemessen groß wird.

Der Nachteil besteht darin, dass nicht verwendeter Speicherplatz vorhanden ist, die Leistungssteigerung dies jedoch mehr als ausgleicht. Wenn ich mehr Speicherplatz möchte, füge ich mehr Laufwerke hinzu. C: Enthält das Betriebssystem und häufig verwendete Anwendungen. P: Enthält weniger häufig verwendete Anwendungen und ist eine 128-GB-SSD mit einer geringeren Haltbarkeit beim Schreiben als C :. T: befindet sich auf einer kleineren SLC-SSD und enthält temporäre Benutzer- und Betriebssystemdateien, einschließlich des Browser-Cache. Video- und Audiodateien sowie Images, Backups und archivierte Daten von virtuellen Maschinen werden magnetisch gespeichert. Diese haben im Allgemeinen eine Clustergröße von 16 KB oder mehr und Lese- / Schreibvorgänge werden von sequenziellen Zugriffen dominiert. Ich defragmentiere nur einmal im Jahr auf Partitionen mit hohem Schreibvolumen, und es dauert ungefähr 10 Minuten, um das gesamte System zu bearbeiten.

Mein Laptop hat nur eine einzige 128 GB SSD und einen anderen Anwendungsfall, so dass ich nicht das Gleiche tun kann, aber ich trenne mich dennoch in 3 Partitionen, C: (80 GB Betriebssysteme und Programme), T: (8 GB Temp.) Und F: ( 24 GB Nutzerdateien), mit denen sich die Fragmentierung gut kontrollieren lässt, ohne Speicherplatz zu verschwenden, und der Laptop wird ersetzt, lange bevor mir der Speicherplatz ausgeht. Dies erleichtert auch das Sichern erheblich, da F: die einzigen wichtigen Daten enthält, die regelmäßig geändert werden.

Richie Frame
quelle
Meine Frage besagt jedoch, dass unser IT-Experte dies "noch" tut, da ich gerade auf dasselbe Problem stoße.
HK_
Beachten Sie, dass Windows seit Vista die Systemdateien, auf die häufig zugegriffen wird, automatisch (wenn möglich) in den äußeren Sektoren aufbewahrt. Dies ist einer der Hauptgründe, warum die Startgeschwindigkeiten so stark gestiegen sind. Die gesamte Startsequenz einschließlich der Startanwendungen wird normalerweise sequenziell vom Laufwerk an der Stelle gelesen, an der sie am schnellsten ist. Natürlich, es sei denn, Sie haben die Partitionen verpfuscht: P-SSDs helfen trotzdem immens - auch nur wegen ihres höheren Durchsatzes.
Luaan
2
@hk_ Nur weil Ihr IT-Experte immer noch Dinge aus Gewohnheit tut, heißt das nicht, dass die grundlegenden Wahrheiten für diese Gewohnheit von vor 20 oder 15 (oder sogar 5) Jahren auch heute noch zutreffen. Wenn Sie Brite wären und aus Gewohnheit weiter auf der linken Straßenseite fahren würden, wenn Sie nach Kontinentaleuropa reisen, wären Sie in einer Welt voller Verletzungen. Das heißt, "weil ich es immer so gemacht habe" ist kein guter Grund, weiterhin etwas zu tun.
FreeMan
@FreeMan Ich unterstütze es nicht. Ich hatte Zweifel, daher meine Frage.
HK_
3

Früher habe ich ein bisschen IT-Arbeit geleistet, und hier ist, was ich weiß und woran ich mich erinnere.

In der Vergangenheit gab es, wie andere gesagt haben, einen echten Vorteil, wenn eine kleine C-Partition am Anfang der Festplatte vorhanden war. Sogar heute in einigen Laptops der unteren Preisklasse könnte dies noch zutreffen. Im Wesentlichen haben Sie durch eine kleinere Partition weniger Fragmentierung, und wenn Sie diese am Anfang der Festplatte belassen, können Sie besser suchen und damit die Zeiten ablesen. Dies gilt auch heute noch für Laptops (normalerweise) und langsamere "grüne" Festplatten.

Ein weiterer großer Vorteil, den ich heute noch nutze, ist, dass "data" und "os" auf getrennten Laufwerken gespeichert sind oder wenn ich diese getrennten Partitionen nicht verwalten kann. Es gibt keine wirkliche Geschwindigkeitssteigerung, wenn SSD oder noch schnellere Magnetlaufwerke verwendet werden, aber es gibt eine große Option zur "einfachen Behebung", wenn das Betriebssystem irgendwann tankt. Tauschen Sie einfach das Laufwerk aus oder führen Sie einen neuen Ghost für diese Partition durch. Die Daten des Benutzers sind intakt. Bei ordnungsgemäßer Einrichtung ist die Neuinstallation von Windows zwischen Laufwerk D: und "Roaming-Profilen" innerhalb von 5 Minuten kein Problem. Das macht es zu einem guten Schritt für einen Level 1 Tech.

coteyr
quelle
Ich bin nicht sicher, ob "ein guter Schritt für einen Level 1-Techniker" darin besteht, Windows neu zu installieren, unabhängig davon, wie schnell es ist. Ich denke, eine Neuinstallation des Betriebssystems sollte fast immer die letzte Möglichkeit sein. So viele seltsame kleine Dinge könnten zerbrechen, wenn Sie die Betriebssysteminstallation unter allen installierten Anwendungen entfernen und durch eine andere (wenn auch sehr ähnliche) ersetzen. Was passiert beispielsweise mit den anwendungsspezifischen Registrierungseinträgen, die nicht in HKCU enthalten sind?
Aaron M. Eshbach
1
Sie werden auch gelöscht, was bedeutet, dass Sie auch Konfigurationsprobleme ausschließen können.
Coteyr
2

Hier ist ein Grund, aber ich glaube nicht, dass dies ein triftiger Grund für die heutigen (modernen) Computer ist.

Dies geht auf Windows 95/98 und XT zurück. Dies trifft wahrscheinlich nicht auf Vista und höher zu, war jedoch eine Hardware-Einschränkung. Wenn Sie also ein neueres Betriebssystem auf alter Hardware ausführen, muss die Einschränkung weiterhin behoben werden.

Ich glaube, die Beschränkung war 2 GB, aber es könnte zu einem früheren Zeitpunkt eine 1 GB-Beschränkung (oder vielleicht auch andere) gegeben haben.

Das Problem war (in etwa) Folgendes: Die BOOT-Partition musste sich innerhalb der ersten 2 GB (möglicherweise 1 GB früher) des physischen Speicherplatzes auf dem Laufwerk befinden. Es könnte sein, dass 1) der START der BOOT-Partition innerhalb der Grenzen des Limits liegen musste, oder 2) die GESAMTE Boot-Partition innerhalb der Grenzen des Limits liegen musste. Es ist möglich, dass zu verschiedenen Zeiten jeder dieser Fälle zutrifft, aber wenn # 2 zutrifft, war es wahrscheinlich kurzlebig, also nehme ich an, dass es # 1 ist.

Bei # 1 musste der START der BOOT-Partition also innerhalb der ersten 2 GB des physischen Speicherplatzes liegen. Dies würde nicht ausschließen, dass 1 große Partition für das Boot / OS erstellt wird. Das Problem war jedoch Dual- / Multi-Boot. Wenn es jemals möglich zu sein schien, das Laufwerk dual / multi zu booten, musste unterhalb der 2-GB-Marke Speicherplatz verfügbar sein, um andere bootfähige Partitionen auf dem Laufwerk zu erstellen. Da zum Zeitpunkt der Installation möglicherweise nicht bekannt ist, ob das Laufwerk jemals eine andere Startpartition benötigen würde, z. B. Linix, oder eine bootfähige Debug- / Fehlerbehebungs- / Wiederherstellungspartition, wurde häufig empfohlen (und oft ohne zu wissen, warum), auf einer "kleinen" Partition zu installieren "Betriebssystem - Startpartition.

Kevin Fegan
quelle
2

Ich frage mich, ob Ihre jahrzehntealte IT-Abteilung sich Gedanken über Backup gemacht hat. Da es sich bei C: um eine Boot / OS-Partition handelt, wird normalerweise eine Art Imagesicherung verwendet. Für eine Daten- / Programmpartition kann jedoch eine inkrementelle Datei- und Ordnersicherung verwendet werden. Das Reduzieren des in der C: -Partition verwendeten Speicherplatzes würde die Zeit und den Speicherplatz reduzieren, die zum Sichern eines Systems benötigt werden.


Ein Kommentar zu meiner persönlichen Nutzung der C: -Partition. Ich habe ein Multi-Boot-System, einschließlich Win 7 und Win 10, und ich habe kein Betriebssystem auf der C: -Partition, nur die Boot-Dateien. Ich verwende die Windows-Systemabbildsicherung sowohl für Win 7 als auch für Win 10, und die Windows-Systemabbildsicherung enthält neben der Win 7- oder der Win 10-Partition immer auch die Partition C: (Boot) Daten und Programme auf der C: -Partition reduzieren den Zeit- und Platzbedarf für eine System-Image-Sicherung (oder Wiederherstellung, falls erforderlich).


Ich verlasse diesen Abschnitt in meiner Antwort wegen der Kommentare unten.

Da mein System mehrere Startvorgänge ausführt, vereinfacht der Neustart in einem anderen Betriebssystem die Sicherung von Daten- / Programmpartitionen, da während der Sicherung keine Aktivitäten auf den Partitionen stattfinden. Ich habe ein einfaches Sicherungsprogramm geschrieben, das eine Ordner- und Dateikopie zusammen mit Sicherheits- und Analyseinformationen erstellt, aber es funktioniert nicht für Win 7- oder Win 10-Betriebssystempartitionen. Daher verwende ich die Systemimagesicherung für C ;, Win 7 und Win 10 OS-Partitionen.

rcgldr
quelle
3
...Was? Es gibt keinen Mangel an Werkzeugen und Methoden, um die Systempartition zu sichern. Außerdem wird Ihr selbst entwickeltes Backup-System wahrscheinlich bei komplexen Vorgängen versagen, da es die üblichen Fälle von fest verknüpften Dateien (SxS stützt sich stark darauf), Knotenpunkten (wiederum, das Kernbetriebssystem stützt sich darauf), teilweise geschriebene Dateien (VSS behandelt dies), gesperrte Dateien (wieder VSS) usw.
Bob
Ich kann wahrscheinlich ein halbes Dutzend verschiedene Softwarepakete nennen - veem, macrium, acronis, symentec ghost ... die dies tun. Die meisten von ihnen verwenden eingebaute Mechanismen auch im Hintergrund.
Geselle Geek
Ich führe Veeam aus, das auf einem externen Laufwerk gesichert ist, aber ich führe es täglich aus. Es gibt noch ein paar bewegliche Teile für Backup-Backups, aber Sie müssen sicherlich nicht manuell defragmentieren oder offline sichern.
Geselle Geek
Bei der Online - Voll Partition Backups, so ziemlich alles verwendet VSS eine Point-in-Time - Snapshot zu bekommen (sonst laufen Sie in Probleme , wenn Sie wieder auf, sagen wir, eine Datenbankdatei , die teilweise geschrieben wird , dann Backup der Datenbank Journal nach der Datei ist fertig). Disk2vhd ist das einfachste Beispiel. Weitere Suiten mit vollem Funktionsumfang wie Acronis werden zusätzlich differenzielle / inkrementelle Bilder verarbeiten.
Bob
@Bob - Ich führe mein Programm erst nach einem Neustart in einem anderen Betriebssystem aus. Daher ist jede Partition, die gesichert wird, nicht aktiv. Dadurch wird das Problem der Momentaufnahme beim Versuch, eine aktive Partition zu sichern, vermieden. Es ähnelt dem Booten von einer CD-ROM, um ein Disk-Imaging-Dienstprogramm zum "Klonen" einer Festplatte auszuführen (was ich vor einiger Zeit getan habe, als ich alle meine Festplatten ausgetauscht habe).
RCGLDR
2

Nein, nicht mit Windows und seinen wichtigsten Softwarepaketen, die auf Systembindungen bestehen, obwohl sie unter Programme: installiert wurden. (Es ist eine institutionalisierte Notwendigkeit, wie die meisten Betriebssysteme aufgebaut sind.) Ein Datenvolumen ist sinnvoll, aber ein separates Wechseldatenträger für Ihre Daten (oder NAS oder selektive oder inkrementelle Sicherungen auf einem solchen Wechseldatenträger) ist noch sinnvoller.

Eine Partitionierung für Systeme mit mehreren Betriebssystemen ist ebenfalls sinnvoll, aber für jede Partition müssen Sie eine feste Speicherobergrenze festlegen. Im Allgemeinen ist es auch in diesem Fall mit separaten Laufwerken besser.

Heutzutage ergänzen virtuelle Maschinen und Cloud-Laufwerke viele dieser Möglichkeiten.

Henrik Erlandsson
quelle
2

Es gibt einen bestimmten Grund - die Verwendung von Volume-Snapshots.

Ein Volume-Snapshot ist eine Sicherung der gesamten Partition. Wenn Sie von einer solchen Art von Sicherung wiederherstellen, schreiben Sie die gesamte Partition neu und setzen das System effektiv auf den vorherigen Status zurück.

Ein Systemadministrator erstellt möglicherweise regelmäßig solche Snapshots, um jegliche Art von Softwarefehlern vorzubereiten. Sie können sie sogar auf einer anderen Partition desselben Laufwerks speichern. Aus diesem Grund soll die Systempartition relativ klein sein.

Bei Verwendung dieses Schemas werden Benutzer aufgefordert, ihre Daten auf dem Netzlaufwerk zu speichern. Bei Softwareproblemen kann ein Systemadministrator das System einfach in den Betriebszustand zurückversetzen. Das wäre äußerst zeitsparend im Vergleich zu einer manuellen Untersuchung und Behebung der Problemursachen.

Enkryptor
quelle
0

Ich programmiere seit fast einem halben Jahrhundert. In einer anderen Antwort steht " historisch" und in einer anderen langen Antwort " Mehrere physische Datenträger" .

Ich möchte betonen, dass wahrscheinlich mehrere physische Datenträger die Empfehlung eingeleitet haben. Vor mehr als einem halben Jahrhundert, als es noch keine Partitionen gab, war es äußerst verbreitet, ein separates physisches Laufwerk für das System zu verwenden. Der Hauptgrund dafür ist die physische Bewegung der Köpfe und das Drehen der Antriebe. Diese Vorteile bestehen nicht für Partitionen, wenn das physische Laufwerk häufig für andere Zwecke verwendet wird.

Beachten Sie auch, dass Unix das System und die Daten in separate Partitionen unterteilt. Es gibt viele gute Gründe dafür, wie in vielen anderen Antworten erläutert, aber für die Leistung sind separate physische Laufwerke die primäre Rechtfertigung.

user34660
quelle
-1

Der Grund, warum wir 2 Partitionen erstellt haben, waren Viren. Einige Viren haben den Bootsektor und den Anfang der Festplatte überschrieben.

Backups auf den Computern der Benutzer führten dazu, dass eine Kopie des gesamten Programms auf eine Diskette kopiert wurde. (In Wirklichkeit ein Nicht-Backup)

Wenn also ein Virus den Anfang der Festplatte "verschlungen" hat, musste normalerweise nur das System neu installiert werden.

Und wenn es keine Sicherungen gab, war die Wiederherstellung von Daten einfacher, wenn die zweite Partition intakt war.

Wenn Sie also Backups haben, ist dieser Grund nicht gültig.

Robert Andrzejuk
quelle