Beim viel beschriebenen Datenberg handelt es sich doch eher um einen Daten-Eisberg. Denn der Großteil der Daten sind kalte Daten, die irgendwo ungenutzt im Verborgenen liegen. Untersuchungen der Datenmenge von Unternehmen haben ergeben, dass durchschnittlich mehr als 60 Prozent der genutzten Kapazität des teuren Primärspeichers entweder komplett inaktiv sind oder nur selten genutzt werden. Bedenkt man die hohen Kosten, die Primärspeicher verursacht, muss man die genutzten Speicherkonzepte, die eine solche Situation erzeugen, infrage stellen. Neue Speichertechnologien, aufbauend auf Objektspeicher und modernen Datenmanagement, sollen nun dabei helfen, das Problem hoher Speicherkosten für eigentlich ungenutzte Daten zu lösen. Gleichzeitig erhöht der aufgeblähte Speicher die Komplexität des Rechenzentrums und lässt sein Management zu einer echten Herausforderung werden. Abhilfe scheint vorerst nicht in Sicht – wachsen die Datenmengen doch kontinuierlich weiter.
Der Hauptgrund für dieses enorme Wachstum sind unstrukturierte Daten aus einer Vielzahl von Anwendungen. Auch neue Richtlinien für die Vorhaltung von Daten tragen zu einer größeren Datenmenge bei – und zu einem noch höheren Prozentsatz kalter, ungenutzter Daten. Und obwohl es seit langem Lösungen gibt, Daten mittels Tierings in passende Speichertiers aufzuteilen, landet ein Großteil der vorhandenen Daten immer noch auf der teuersten Speicherebene: dem Primärspeicher.
Backup und Replikation lassen die Datenmenge exponentiell wachsen
Ein Grund für den hohen Anteil ungenutzter Daten auf dem Primärspeicher sind beispielsweise die Prozesse für Backup und Replikation. Diese Daten etwa auf NAS zu speichern, ist speicherintensiv und teuer. Sobald eine Datei erstmals erstellt wird, werden die Daten zum Snapshot-Zeitplan hinzugefügt. Aktive Dateien haben eine tägliche Änderungsrate von etwa 20 Prozent, so dass eine 1 MB große Datei innerhalb von nur einer Woche zu 2 MB Snapshots anwächst. Zu den Snapshots kommen noch Backups hinzu: Tägliche und wöchentliche Backups werden monatlich und monatliche Backups jahrelang aufbewahrt. Das Endergebnis ist, dass Unternehmen über die gesamte Lebensdauer einer Datei ein Vielfaches der ursprünglichen Dateigröße speichern müssen. Und das Problem vergrößert sich exponentiell – je mehr Daten erzeugt und behalten werden, desto größer wird die Belastung über Backup- und Replikation.
Neue Speicherkonzepte sind nötig
Angesichts dieser riesigen Menge inaktiver, kalter Daten auf teurem Primärspeicher drängt sich die Frage auf, ob es denn nicht möglich wäre, das Konzept des Daten-Tierings so anzuwenden, dass es dem Grundgedanken gerecht wird, nicht genutzte Daten auf einem möglichst günstigen Speicher vorzuhalten und nicht auf dem teuren Premium-Primärspeicher? Neueste Software zur Speicherverwaltung verspricht genau dies. Gleichzeitig ist es natürlich sinnvoll, Speicherkonzepte zu erstellen, die die Nachteile der gängigen Speicherkonzepte generell vermeiden und damit deutlich günstigeren Speicherplatz ermöglichen. Beide Lösungen zusammen sollten es erlauben, Speicherplatz auf dem teuersten Tier einzusparen und die Kosten für die Tiers darunter deutlich zu verringern.
Objektspeicher macht Speicher einfacher und günstiger
Der erste Teil der Lösung ist kosteneffektiver Objektspeicher für Unternehmen – seit langem ein wichtiger Bestandteil von Cloud-Plattformen wie Amazon oder Google und Grundlage für Angebote wie Youtube, Facebook und Netflix. Waren diese Lösungen bisher den Schwergewichten der IT-Branche vorbehalten, bringen neue Speichertechnologien sie in die Rechenzentren in aller Welt. Dort zeichnen sie sich durch die gleichen Merkmale aus, die sie von vornherein für diese Anwendungen prädestinierten: eine sehr hohe Kosteneffizienz und eine unbegrenzte Skalierbarkeit. Diese Faktoren machen Objektspeicher zu einem perfekten Tier-2-Speicherziel für viele Anwendungen unterhalb des teuren Primärspeichers.
Insbesondere die Bereitstellung und Skalierung von Speicher ist seit jeher ein Problem, das jeder Storage-Manager kennt: Herkömmliche NAS- und Backup-Systeme müssen viel größer bereitgestellt werden als sie anfangs überhaupt benötigt werden und stehen deshalb oft jahrelang im Leerlauf herum. Objektspeicher hingegen zeichnet sich dadurch aus, dass er verglichen mit herkömmlichen monolithischen Speichersystemen in sehr vielen kleineren Schritten skaliert werden kann. Man kann also klein beginnen und bequem nach Bedarf hochskalieren. Das spart immense Kosten, die je nach Größe bei nur 0,5 bis 1 Cent pro Gigabyte und somit bei nur gut einem Drittel von traditionellen SAN- oder NAS-Systemen liegen. Objektspeicher ist auch sehr einfach aufgebaut und vermeidet Komplexität im Rechenzentrum, indem er mehr Informationen in einem einzigen Storage-Pool konsolidieren kann.
Dateimanagement der neuesten Generation
Der zweite Teil der Lösung ist eine Dateiverwaltungssoftware der nächsten Generation, die den Prozess des Tierings von Daten automatisiert. Diese Lösungen identifizieren Daten anhand benutzerdefinierter Attribute wie beispielsweise Dateialter, Zugriffshäufigkeit, Eigentümer oder Dateityp und verschieben die Daten dann automatisch entweder in den teuren Primärspeicher oder den günstigen Objektspeicher. Wenn der Benutzer die Daten anfordert, werden sie transparent aus der Objektspeicherung abgerufen. Ändert der Benutzer die Datei, wird sie in den Originalordner zurückgeschickt. Der gesamte Prozess ist für den Benutzer unsichtbar und der Datenzugriff ändert sich nicht.
So schmilzt der Daten-Eisberg
Angesichts des Drucks auf Budgets, Speicherkapazität und Performance, müssen Unternehmen hinsichtlich ihrer Speicherstrategien für Tier-1 oder Primärspeicher einen intelligenteren Ansatz verfolgen. Das Konzept des Daten-Tierings muss innerhalb neuer Lösungen für das Datenmanagement so umgesetzt werden, dass der Eisberg schrumpft und die ungenutzten Daten nicht auf dem teuersten Medium landen. Gleichzeitig benötigen Unternehmen die neue Technologie Objektspeicher, um die Kosten mittels einfacher Skalierung und Verwaltung in den Griff zu bekommen. Beides ist nun auch für kleinere und mittlere Unternehmen möglich. So ausgestattet, schmilzt der Eisberg zu einer Eisscholle und das Unternehmen kann ohne Angst vor unliebsamen Überraschungen bei den Speicherkosten volle Fahrt vorausfahren.
Von Jon Toor – er ist Chief Marketing Officer bei Cloudian und hat mehr als 20 Jahre Erfahrung in der Storage-Industrie.