
DMZ - DIGITAL ¦ Matthias Walter
Von der Vergänglichkeit des Digitalen: Warum Datensicherung kein Luxus, sondern Überlebensstrategie ist
In einer Welt, in der die digitale Existenz zum integralen Bestandteil individueller, institutioneller und gesamtgesellschaftlicher Identität geworden ist, gewinnt ein unscheinbares, oft stiefmütterlich behandeltes Thema zentrale Bedeutung: Datensicherung. Es handelt sich dabei nicht um eine technische Nebensache für Nerds im Serverraum, sondern um eine existenzielle Notwendigkeit inmitten digitaler Verwundbarkeit.
Datensicherung, technisch korrekt: Data Protection Strategies, umfasst sämtliche systematisch geplanten Maßnahmen zur Erstellung, Speicherung und Wiederherstellung eines konsistenten Datenbestandes – mit dem Ziel, ihn gegen Verlust, Manipulation oder Katastrophen zu wappnen. Dabei geht es nicht nur um Sicherung im Sinne einer bloßen Duplikation, sondern um eine durchdachte Recovery Architecture, die den Unterschied machen kann zwischen Datenresilienz und Datenverlust, zwischen Geschäftskontinuität und digitalem Desaster.
Physische Redundanz – Die Trennung von Schicksalen
Die Grundregel moderner Datensicherung lautet: Keine Sicherung ist sicher, wenn sie am selben Ort wie das Original gespeichert wird. Deshalb ist eine physische Entkopplung zwischen Produktivdaten und Backups zwingend erforderlich. Ob auf externen Festplatten, NAS-Systemen (Network Attached Storage), LTO-Bändern oder in georedundanten Cloud-Architekturen – die Daten müssen auf physisch unabhängige Datenträger ausgelagert und außerhalb des operativen Systems gelagert werden. Idealerweise in anderen Brandabschnitten, Gebäuden oder Regionen – je nach Schutzbedarf.
Wiederherstellungspflicht – Backup ohne Restore ist wie ein Tresor ohne Schlüssel
Sicherung ohne Wiederherstellbarkeit ist eine gefährliche Illusion. Ein Backup ist nur dann wertvoll, wenn es in der Praxis auch restauriert werden kann – verlässlich, konsistent, vollständig. Deshalb fordern moderne Standards regelmäßige Restore-Tests (Disaster-Recovery-Drills). Ein professionelles Backupkonzept enthält stets ein Testprotokoll, das sicherstellt, dass die Datenintegrität auch in einem realen Katastrophenszenario gewährleistet ist.
Die Empfehlung aus der Praxis: Mindestens vierteljährliche Wiederherstellungstests auf unterschiedlichen Systemen – inklusive Validierung von Metadaten und Dateiabhängigkeiten.
Verschlüsselung – Kryptographischer Datenschutz im Backup
In Zeiten omnipräsenter Cyberangriffe und Datenschutzgesetzgebung wie der DSGVO ist die Verschlüsselung von Backup-Daten (Data-at-Rest-Encryption) keine Option, sondern Pflicht. Moderne Verfahren wie AES-256 (AES-256 (Advanced Encryption Standard mit einem 256-Bit-Schlüssel) ist ein äußerst robuster symmetrischer Verschlüsselungsalgorithmus, der als Goldstandard für die Absicherung sensibler Daten, einschließlich Backups, gilt. Mit einem 256-Bit-Schlüssel bietet er 2^256 mögliche Kombinationen, was ihn gegen Brute-Force-Angriffe mit aktueller Technologie praktisch unverwundbar macht. Dieser gewaltige Schlüsselraum stellt sicher, dass verschlüsselte Backups, wie jene auf physisch unabhängigen Datenträgern gespeichert, selbst bei Abfangen vertraulich bleiben. Der Algorithmus arbeitet durch mehrere Runden von Substitution und Permutation, wobei der Schlüssel genutzt wird, um Klartext in Chiffretext umzuwandeln, mit 14 Runden bei AES-256 für höchste Sicherheit) oder Hardware-basierte Verschlüsselung auf Bandlaufwerken garantieren, dass selbst bei physischem Verlust des Datenträgers kein unautorisierter Zugriff auf die Inhalte möglich ist.
Backup-Arten im Überblick – Von Voll- bis Inkrementalstrategie
Datensicherung ist nicht gleich Datensicherung. In der Praxis unterscheidet man zwischen verschiedenen Backupverfahren, deren Wahl maßgeblich die Speicherökonomie und Wiederherstellungszeiten beeinflusst:
Vollbackup (Full Backup):
Es wird der komplette Datenbestand zu einem bestimmten Zeitpunkt gesichert.
Vorteil: einfache Wiederherstellung.
Nachteil: hoher Speicherbedarf und Zeitaufwand.
Inkrementelles Backup (Incremental Backup):
Es werden nur jene Daten gesichert, die seit dem letzten Backup – egal ob voll oder inkrementell – verändert wurden.
Vorteil: sehr speichereffizient.
Nachteil: Die Wiederherstellung erfordert das ursprüngliche Vollbackup plus alle darauf folgenden inkrementellen Backups in korrekter zeitlicher Reihenfolge.
Schlüsselkonzept: Archivbit – ein Dateisystemattribut (u.a. in NTFS), das automatisch erkennt, ob eine Datei seit der letzten Sicherung verändert wurde.
Differentielles Backup:
Hier werden alle Änderungen seit dem letzten Vollbackup gesichert – unabhängig davon, wie viele differenzielle Sicherungen es schon gab.
Vorteil: schnellere Wiederherstellung (nur Vollbackup + letztes differenzielles Backup nötig).
Nachteil: zunehmender Speicherverbrauch mit jeder differenziellen Sicherung.
Der Hauptunterschied liegt also in der Wiederherstellungskomplexität versus Speicherbedarf: Inkrementell = effizient, aber restore-intensiv. Differentiell = restore-schneller, aber speicherintensiver.
Das Generationenmodell: Großvater-Vater-Sohn
Um Ordnung und Kontinuität in die Backup-Flut zu bringen, hat sich in professionellen IT-Infrastrukturen das sogenannte Generationenprinzip etabliert – auch als Großvater-Vater-Sohn-Prinzip bekannt:
Sohn = tägliches Backup (inkrementell oder differenziell)
Vater = wöchentliches Vollbackup
Großvater = monatliche Archivierung des letzten Wochen-Backups
Dieses Verfahren ermöglicht eine lückenlose Historisierung der Daten über verschiedene Zeitebenen hinweg und bietet gleichzeitig eine strategisch effiziente Balance aus Redundanz, Speicherplatz und Restore-Zeiträumen.
Frühere tägliche oder wöchentliche Backups werden zyklisch überschrieben, während Monatsbackups archiviert werden – oft über Jahre hinweg. So entsteht eine skalierbare, nachvollziehbare Backup-Hierarchie, die auch regulatorischen Anforderungen (z. B. aus dem Handels- oder Steuerrecht) gerecht wird.
Speicherplatz, Zeit und Realität – Warum Backup-Strategien durchdacht sein müssen
Was oft unterschätzt wird: Datensicherung ist ein Prozess mit hohem Ressourcenbedarf – sowohl zeitlich als auch speichertechnisch. Je nach Datenvolumen kann ein Vollbackup Stunden bis Tage beanspruchen. Hinzu kommt der immense Speicherbedarf in petabyte-starken Infrastrukturen – hier sind deduplizierende Speicherlösungen, Komprimierung und Cloud-Tiering längst unverzichtbar.
Gerade inkrementelle Backups bieten Effizienz, aber setzen eine konsequente Verwaltung der Backup-Kette voraus. Denn: Wird auch nur ein Glied dieser Kette beschädigt, ist die Wiederherstellung kompromittiert.
Die digitale Unvergänglichkeit will geplant sein
In einer Zeit, in der „Daten das neue Öl“ genannt werden, zeigt sich: Ohne konsequente, geprüfte und sichere Backups bleibt jede digitale Existenz fragil. Es braucht nicht nur Technik, sondern ein ganzheitliches Verständnis für Information Lifecycle Management – von der Entstehung der Daten bis zu ihrer langfristigen Archivierung.
Der verantwortungsbewusste Umgang mit Daten ist keine IT-Frage, sondern eine kulturelle Haltung. Wer heute seine Daten nicht schützt, riskiert morgen seine Geschichte.
Denn wie der Philosoph sagte:
„Wir sind, was wir erinnern – und wir erinnern, was wir sichern."
Kommentar schreiben