Datenträger - Festplatten, SSDs, Speichersticks und -Karten, CD/ 19.569 Themen, 109.976 Beiträge

Prüfung alter Datenbestände auf Fehlerfreiheit

mawe2 / 23 Antworten / Flachansicht Nickles

Auf einer älteren Festplatte (HDD) liegt eine größere Datenmenge (100.000 Dateien unterschiedlichster Größen) vor.

Die Platte wurde schon viele Jahre nicht genutzt.

Möglicherweise sind durch die längere Lagerung (ohne regelmäßige Inbetriebnahme!) Fehler entstanden, so dass einzelne (oder auch viele) Dateien nicht mehr nutzbar sind.

Eine AdHoc-Prüfung ist für mich nur stichprobenartig möglich. Wenn ich 20 Dateien geöffnet und kontrolliert habe, lässt das aber noch keine Rückschlüsse auf die Unversehrtheit der restlichen 99.980 Dateien zu.

Wie lässt sich dieser Datenbestand auf einfachem Wege überprüfen?

Wie finde ich heraus, welche der 100.000 Dateien fehlerfrei sind und bei welchen Dateien Fehler vorliegen?

Die Prüfung sollte auf einem Windows-System erfolgen.
(Wenn es dort keine erfolgversprechenden Methoden dafür gibt, wäre aber auch der Einsatz anderer Betriebssysteme für diesen Zweck denkbar.)

Gruß, mawe2

bei Antwort benachrichtigen
Borlander mawe2 „Prüfung alter Datenbestände auf Fehlerfreiheit“
Optionen
Wie finde ich heraus, welche der 100.000 Dateien fehlerfrei sind und bei welchen Dateien Fehler vorliegen?
Es sind vorab keine Vorkehrungen für solche Prüfungen getroffen worden. Es wurden also nicht bereits zu den Zeiten, als die Platten noch regulär im Einsatz waren, irgendwelche Protokolle geschrieben, auf die man jetzt zurückgreifen könnte.

Kannst Du in vielen Fällen gar nicht herausfinden ohne eine manuelle Prüfung: Überall dort wo beliebige Binärdaten enthalten sein können.

Was man automatisiert prüfen kann ist z.B. die Fehlerfreiheit von Datenstrukturen, aber auch das bietet keine Sicherheit, falls die vorgefundenen Werte auch vorkommen dürfen. Da besteht aber zumindest die Chance, dass unerlaubte Daten auftreten können.

Betrachtest Du z.B. ein Bitmap-Bild, so kannst Du innerhalb der Bilddaten nicht automatisiert entscheiden, ob das Pixel die Farbe wirklich so haben soll, oder ein Bit gekippt ist. Ein Fehler im Dateiheader ist u.U. auffällig, z.B. Falls nicht mehr zum Dateityp passend, oder falls die Größenangaben nicht konsistent zur Dateigröße sind.

Bei MSO-XML-Formaten könnte man an der Stelle abgleichen ob die Hashes der gezippten Inhalte noch passen. Hat man solche Anhaltspunkt nicht, schaut es nicht so gut aus.

Ansonsten sollten Festplatten selbst auch eine (einfache) Prüfsumme je Hardware-Sektor mitführen um mögliche Fehler entdecken zu können.

Moderne Dateisysteme führen auch selbst gerne noch mal Checksummen für jede Datei mit, somit ist eine Konsistenzprüfung (Scrubbing) auch unabhängig von der Hardware möglich. Das greift aber natürlich auch nur, wenn die Daten nicht vorher schon fehlerhaft waren (mit ECC-Speicher kann man diese Fehlerquelle reduzieren). Separat Checksummen führen hat den Vorteil, dass Du auch auf anderen Medien erneut prüfen kannst.

Fazit: Ist nicht einfach das Thema…

bei Antwort benachrichtigen