Datenträger - Festplatten, SSDs, Speichersticks und -Karten, CD/ 19.567 Themen, 109.957 Beiträge

Prüfung alter Datenbestände auf Fehlerfreiheit

mawe2 / 23 Antworten / Flachansicht Nickles

Auf einer älteren Festplatte (HDD) liegt eine größere Datenmenge (100.000 Dateien unterschiedlichster Größen) vor.

Die Platte wurde schon viele Jahre nicht genutzt.

Möglicherweise sind durch die längere Lagerung (ohne regelmäßige Inbetriebnahme!) Fehler entstanden, so dass einzelne (oder auch viele) Dateien nicht mehr nutzbar sind.

Eine AdHoc-Prüfung ist für mich nur stichprobenartig möglich. Wenn ich 20 Dateien geöffnet und kontrolliert habe, lässt das aber noch keine Rückschlüsse auf die Unversehrtheit der restlichen 99.980 Dateien zu.

Wie lässt sich dieser Datenbestand auf einfachem Wege überprüfen?

Wie finde ich heraus, welche der 100.000 Dateien fehlerfrei sind und bei welchen Dateien Fehler vorliegen?

Die Prüfung sollte auf einem Windows-System erfolgen.
(Wenn es dort keine erfolgversprechenden Methoden dafür gibt, wäre aber auch der Einsatz anderer Betriebssysteme für diesen Zweck denkbar.)

Gruß, mawe2

bei Antwort benachrichtigen
Borlander gelöscht_189916 „Imho prüft jede Platte die Daten über CRC und darüber wird auch ein Dateisystemcheck angeworfen, wenn etwas nicht ...“
Optionen
Imho prüft jede Platte die Daten über CRC […] Will man ganz sicher gehen, bleibt m.E. bei so etwas nur das Prinzip Prüfsumme

CRC ist doch bereist eine Prüfsumme?!

Solange da also auch bei eienr lange gelagerten Platte nichts kommt, kann man von sauberen Daten ausgehen.

Jein. Eine (vergleichsweise kurze) Prüfsumme bietet keine absolute Sicherheit über Fehlerfreiheit, sondern steigert "nur" sehr deutlich die Chance einen zufälligen (insbesondere nicht böswillig eingebrachten) Fehler zu erkennen. Es sind Konstellationen denkbar bei auch mit Fehlern die korrekte Prüfsumme geliefert wird. Letztendlich muss man dann genau schauen welche Garantieren ein Prüfverfahren liefern kann (z.B. Erkennung eines Einzel-Bit-Fehlers innerhalb der zu prüfenden Daten).

Im Datenblatt von Festplatten kann man auch eine Angabe zur Häufigkeit von nicht korrigierbaren Fehlern finden. Die liegt AFAIR je nach Nutzungsszenario im Bereich 10^14 bis 10^16. Ein TB hat 10^12 Byte = 0,8*10^13 Bit. Bei einem Datenträger ab 12,5TB würdest Du somit an der Untergrenze kratzen. Mit einer 18TB Platte landest Du bei 7 mal komplett auslesen schon bei 10^15. Also gar nicht mal mehr so viel. Real werden die Fehler wahrscheinlich noch seltener auftreten, aber eine Garantie hast Du da halt nicht…

bei Antwort benachrichtigen