Auch wenn viele das Defragmentieren für unsinnig halten - ich mache es.
Alleine schon das minimierte Zugriffsgeräusch ist für mich ein guter Grund ;)
Und heute habe ich einen neuen Rekord entdeckt:
Zwei Dateien
212 MB groß, 13027 Fragmente
166 MB groß, 19462 Fragmente
Beide wurden von einer anderen Partition kopert und haben dabei wohl möglichst viele kleine Lücken gefüllt. Beide Dateien sind Videos und produzierten beim Abspielen doch hörbar mehr Zugriffslärm, als sonst üblich.
Da fragt man sich doch gleich auft Neue, of es denn wirklich so schwierig war, NTFS fragmentireungsresistent zu machen, so wie die Linux-FS es können.
Datenträger - Festplatten, SSDs, Speichersticks und -Karten, CD/ 19.511 Themen, 108.909 Beiträge
Kein Arsch interessiert sich für dein System, also komm runter.
Und wenn du so ein ach-so-spezielles System hast, wie kommst du dann auf die Idee, die dort herrschende Zustände ursprünglich ohne Kommentar in einem Forum anzubieten?
Das Thread-Thema war eben das. Wenn jetzt der Browser die Sitzungs-Cookies löscht und die einzelnen Cache-dateien, weil zu alt/zu viel, dann entsteht ein Gitter aus leeren und vollen Sektoren. und wenn da jetzt eine größere Datei kommt, dann werden die kleine Lücken ausgefüllt.
wenn du an einem Dokument arbeitest, das immer größer wird, dann passiert es genau so, mit jedem Speichern von Mehrinhalten werden zusätzliche Sektoren belegt, die nicht zusammenhängen müssen und auch nicht immer können. Und wenn man diese Datei dann verschiebt, dann gibt es auf einmal viele Lücken.
Selbst ein Windows-Update, das mit geringfügig größeren Austausch-Dateien, Entpacken, temporären Sicherungen etc. kommt, verursacht Fragmentierung...