Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb.
Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster-Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced-Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.
Unabhängig von der Ursache ist die Fähigkeit zur schnellen Wiederherstellung unternehmenskritischer Daten von entscheidender Bedeutung, sowohl zum Schutz der Unternehmensreputation als auch zur Kostenvermeidung durch Arbeitsausfallzeiten. Da Administratoren heute eine immer komplexere IT-Architektur verwalten müssen, darf die Datensicherungen nach der erstmaligen Konfiguration kaum noch Zeit kosten. Sie muss vollständig automatisiert ablaufen und so einfach wie möglich gestaltet sein. Bei Datenverlust sollte es das System ermöglichen, mit wenigen Klicks nicht nur einzelne Server oder Clients, sondern sogar einzelne Ordner oder Dateien wiederherzustellen.
Die Backup- und Disaster-Recovery-Strategie eines Unternehmens ist im Arbeitsalltag zwar ein nahezu unsichtbares Sicherheitsnetz, im Ernstfall aber absolut kritisch für die Geschäftskontinuität. In der Praxis zeigt sich jedoch, dass viele Unternehmen Schwierigkeiten haben, im Fall von Datenverlust ein Backup wiederherzustellen sowie ihre Disaster-Recovery-Tests erfolgreich abzuschließen. Einige Unternehmen verfügen nicht einmal über einen Disaster Recovery-Plan.
Fragmentierte Backup-Strategie: Fehleranfällig und schwer zu testen
Ein Disaster-Recovery-Plan ist zwar wichtig, doch wenn dieser nicht getestet wird, ist es wahrscheinlich, dass er im Notfall versagt. Gerade, wenn die Backup-Systeme fragmentiert sind, also zwei oder mehrere unterschiedliche Backup-Lösungen zum Einsatz kommen, und dies auch noch häufig über mehrere Standorte hinweg, sind die Systeme oft fehleranfällig und schwer zu testen. Darüber hinaus können solche Strategien es schwierig machen, verlorene Dateien in einem Disaster-Recovery-Szenario innerhalb eines vernünftigen Zeitrahmens wiederherzustellen. Oft ist es für Unternehmen sogar eine Herausforderung, ihre selbst gesteckten Ziele für RTO (Recovery Time Objective) und RPO (Recovery Point Objective) zu erfüllen. Das Fehlen einer konsolidierten Strategie ist sicher auch ein Grund hierfür.
Konsolidierte Cloud-Lösung: Geringer Testaufwand und Reduzierung der Downtime
Eine Cloud-basierte All-in-One-Lösung kann helfen, hohen Aufwand aufgrund Wartung mehrerer Produkte zu vermeiden. Der Einsatz von Public-Cloud-Infrastrukturen trägt dazu bei, Disaster-Recovery-Tests zu vereinfachen und bessere Testergebnisse zu erzielen. Anstatt Disaster-Recovery-Standorte und die gesamte umliegende Infrastruktur intern zu warten, bieten Cloud-Infrastrukturen, die in der Lage sind, mit wenigen Mausklicks Zugriff auf Server, Services und Dateien zu gewähren, eine wesentlich bessere Verfügbarkeit und Zuverlässigkeit und verursachen einen erheblich geringeren Testaufwand. In einem echten Katastrophenfall, wenn ganze Server oder Dienste wiederhergestellt werden müssen, können externe Public Cloud Services die RTO auf ein Minimum reduzieren. Die eigentliche Wiederherstellung wird weniger dringlich, da eine externe Infrastruktur in der Lage ist, die Wiederherstellungszeit zu überbrücken, indem sie den Dienst den Benutzern zur Verfügung stellt.
Cloud-Sicherheit: Das Shared Responsibility-Modell
Während Public Clouds ein hervorragendes Werkzeug sind, um Infrastruktur bereitzustellen, wenn die unternehmenseigene Infrastruktur in Schwierigkeiten ist, benötigen diese auch Schutz in ihrer Rolle als Produktionssystem wie beispielsweise Microsoft Office 365. Immer noch gehen viele Unternehmen davon aus, dass Public Cloud-Dienste bereits ausreichend abgesichert seien.
Zwar ist es nach dem Shared-Security-Modell Aufgabe der Cloud Provider, die Infrastruktur zu schützen, das heißt, sie sind für die physische Sicherheit, die globale und regionale Konnektivität sowie die Stromversorgung und Kühlung ihrer eigenen Rechenzentren verantwortlich. Aber es liegt in der Verantwortung der Unternehmen, ihre Daten zu schützen. Hier unterscheiden sich die Daten in der Cloud nicht so sehr von den Daten On-Premises. Das Risiko von Naturkatastrophen und Hardwareausfällen ist in einem redundanten System natürlich geringer, aber auch andere Bedrohungsvektoren wie Softwarefehler, menschliches Versagen und gezielte oder zufällige Cyberangriffe gelten in gleicher Weise in der Cloud und erfordern entsprechende Security-Maßnahmen.
Der Verlust geschäftskritischer Daten bedeutet für jedes Unternehmen enormen Schaden, doch mit einem konsequenten Backup-Management lassen sich Downtime-Kosten, Wiederherstellungszeiten und Datenverluste enorm reduzieren. Public Cloud-Backup- und Disaster-Recovery-Technologien bieten Unternehmen hierfür ein stabiles Notfall-Tool, um Wiederherstellungszeiten zu verkürzen und die Verfügbarkeit kritischer Dienste sicherzustellen. Denn als konsolidierte Lösung sind sie einfach zu testen, sorgen für hohe Zuverlässigkeit im Ernstfall und schützen vor Datenverlust durch Katastrophenfälle oder Sicherheitsbedrohungen wie Ransomware.
Von Stefan Schachinger, Consulting System Engineer für Data Protection bei Barracuda Networks
#Netzpalaver #Barracuda