Gedanken zum Thema Datensicherung

(755 Worte insgesamt im Text)
(10016 mal aufgerufen)  Druckerfreundliche Ansicht

Letzte Änderung: 07.01.2008
Da die Datensicherung ein wichtiger Bestandteil der täglichen Arbeit ist, möchte ich hier ein paar Gedankenanstöße geben.

Vor dem Beginn der Datensicherung muß ich mir erst einmal überlegen, WAS ich WIE und WARUM mit WELCHEM Aufwand sichern möchte. Es gibt verschiedene Arten der Datensicherung und unterschiedliche Motivationen dieses zu tun.

Ich will Daten schützen...
... vor dem Zugriff unbefugter Dritter.
... vor den irrtümlichen Verlust oder Veränderungen durch den Benutzer.
... vor dem Verlust der Daten durch defekte Datenträger
... vor dem Verlust durch Ausfall von Hardwarekomponenten.

Und vielleicht möchte ich ein neues System schnell erstellen können.

Der Schutz der Daten vor unberechtigtem Zugriff bleibt hier zunächst einmal außen vor.

Um Daten vor Verlust durch eine defekte Festplatte zu schützen, kann man ein RAID nutzen. RAID-Controller für "normale" IDE-Festplatten sind unter Linux aber leider rar. Bei SCSI-Platten sieht der Support besser aus, dafür sind die SCSI-Festplatten recht teuer.

Unter Linux bietet sich daher eher der Einsatz eines "Software-RAID" an, bei welchem der Prozessor die Arbeit eines RAID-Controllers übernimmt. Sämtliche bislang erschienenen Linux-Versionen unterstützen diese Art des RAID und laufen auch stabil. Ein Vorteil bei der Verwendung eines Software-RAID liegt zusätzlich in der universellen Einsetzbarkeit: manch Hardware-RAID-Controller verwendet ein proprietäres Format zur Speicherung der RAID-Informationen und bei einem Ausfall des Controllers können die Daten dann nicht mehr gelesen werden.

Grundsätzlich sieht die Funktionsweise bei einer Spiegelung der Daten (RAID 1) wie folgt aus: Werden Daten auf die Platte A geschrieben, so werden diese Daten gleichzeitig auf Platte B abgelegt. Fällt die Platte A wegen eines Fehlers aus, so sind die Daten auf Platte B noch verfügbar. Platte A wird ausgetauscht, die aufgebrochene Spiegelung wird automatisch neu synchronisiert und alles ist wieder OK.

Eine andere Alternative ist das Kopieren der Daten in regelmäßigen Abständen auf einen anderen Datenträger. Dieser Datenträger kann ein angeschlossenes Bandlaufwerk oder eine externe Festplatte sein. Ein über das Netzwerk zu erreichender anderer (Backup-)Rechner oder eine weitere lokale Festplatte sind andere Alternativen.

Speziell für die letzten beiden Verfahren gibt es das Tool "unison". Mit diesem Tool kann man eine Synchronisation verschiedener Verzeichnisse, auch über das Netzwerk, erreichen. Der Vorteil liegt in der inkrementellen Verarbeitung. Bei einem einfachen kopieren der Platte A auf die Platte B werden jede Nacht Daten kopiert, die sich nicht geändert haben. Sie liegen bereits in der aktuellen Version auf der Platte B vor, werden aber wegen der "starren" Kopierregeln trotzdem nochmals transferiert. Das macht keinen Sinn, denn man ist eigentlich nur an den geänderten Dateien interessiert.

Ich verringere den Zeitraum der Synchronisation erheblich, wenn ich nur die Daten kopiere, die sich geändert haben. Außerdem kann ich das Kopieren von unnötigen Daten unterbinden. Warum sollen zum Beispiel die zwischengespeicherten Daten des Squids kopiert werden. Der Cache kann neu aufgebaut werden. Die aktuelle Konfiguration des Squids ist jedoch wichtig für mich und wird synchron gehalten.

Bei dem Transfer über das Netzwerk auf einen anderen Rechner kann man definierte Verzeichnisse synchron halten. Wird zum Beispiel eine Konfigurationsdatei auf Server A geändert, so ist diese Datei nach der nächtlichen Synchronisation auch auf Server B aktualisiert. Bei Ausfall des Servers A kann ich dann recht schnell auf Server B schwenken und habe dann die Daten und die Konfigurationen mit Stand der Nachtsynchronisation zur Verfügung. Dadurch werden die Ausfallzeiten des ganzen Servers minimiert.

Andere Tools für eine Sicherung können "tar" oder "cpio" sein. Mit diesen Tools kann man mehrere Archive anlegen um Sicherzustellen, dass man auch Dateien zurücksichern kann, die älter als die letzte Sicherung sind.

Meistens wird ein Fehler nicht sofort entdeckt und die Sicherung mit den richtigen Daten wurde bereits überschrieben. Diese Art der Sicherung erfordert aber eine Menge an Speicherkapazität. Eine inkrementelle Sicherung wie bei "unison" ist hier aber nicht möglich.

Ein Tool, welches inkrementelle Sicherungen mit unterschiedlichen Versionen einer Datei kombiniert, ist "rdiff-backup". Damit kann man auch ein "Point-in-time recovery" hinbekommen. Dieses Tool bietet die Möglichkeit, sofern die Daten noch im Archivverzeichnis liegen, eine bestimmte Datei oder ein Verzeichnis auf den Stand zu einem bestimmten Zeitpunkt zurückzusichern. So in der Art: "Hole mir die Datei /etc/squid/squid.conf mit dem Stand vom 17.Oktober 2004 um 14:30 Uhr zurück." .

Fazit:
Es gibt verschiedene Arten der Datensicherung und damit verbunden sind verschiedene Lösungswege. Abhängig von den eigenen Anforderungen an die Sicherung gibt es keine Patentrezepte jedoch empfohlene Vorgehensweisen.

Ich hoffe, nicht all zu sehr verwirrt zu haben. Datensicherung ist jedoch wichtig und nicht "einfach so" zu machen. Vorausgesetzt man will mit der Datensicherung noch was anfangen können.

Hinweis: Dieser Text entstammt ursprünglich aus der Feder von Michael Engemann in der Mailingliste "Schulen ans Netz" und wurde für diesen Artikel leicht geändert.


Kommentare

h.hullen
15.07.08, 14:44
einfach mit rsnapshot

Ein sehr simples, leistungsfähiges und zuverlässiges Verfahren ist "rsnapshot"; weitere Informationen:

http://arktur.de/Wiki/Zusatzprogramme:rsnapshot

Sollte bei allen Linux-Schulservern problemlos installiert werden können.

Helmut Hullen

Einen Kommentar hinzufügen



 Suchen:


 Umfrage

(Nur für angemeldete Benutzer)

Was wird hier am meisten vermisst?

[ Ergebnis | Umfragen ]

Stimmen: 621
Kommentare: 0

 Zitate

Fehler sind menschlich - aber wer richtigen Mist bauen will, braucht einen Computer.

-- anonymous