Infrastrukturweite Verschlüsselung ist die letzte Feste der IT-Security

Die Wolke ist in der Unternehmens-IT deutscher Unternehmen angekommen. Auch hierzulande profitieren Firmen jeder Größe von niedrigeren Kosten bei größerer Skalierbarkeit und Zuverlässigkeit. Die Verantwortung für die Sicherheit ihrer Daten sollten Unternehmen jedoch nicht in die Hände von Cloud-Providern legen. Der Datenverschlüsselung und der Kontrolle über die Verschlüsselungs-Keys kommt in heterogenen IT-Landschaften besondere Bedeutung zu. Denn im Ernstfall ist Verschlüsselung die letzte Feste der IT-Security.

Cloud-Computing ist Mainstream in der IT von Unternehmen geworden, auch in Deutschland. Eine aktuelle Studie des Branchenverbands Bitkom (Cloud Monitor 2018) kommt zu dem Ergebnis, dass die Mehrheit der hiesigen Unternehmen „die Wolke“ in irgendeiner Form nutzen: „Acht von zehn Unternehmen (83 Prozent) mit mehr als 2.000 Mitarbeitern setzen mittlerweile auf Cloud-Dienste. In Unternehmen mit 100 bis 1.999 Mitarbeitern liegt die Cloud-Nutzung bei 65 Prozent, ähnlich hoch wie bei kleineren Unternehmen mit 20 bis 99 Mitarbeitern (66 Prozent).“ Der Business-Nutzen von Dateispeicherung in der Cloud oder Software-as-a-Service liegt auf der Hand: Niedrigere IT-Kosten bei höherer Skalierbarkeit und größerer Zuverlässigkeit im Vergleich zu Ressourcen im eigenen Rechenzentrum.

Dennoch bringt die Cloud Herausforderungen mit sich. Selbst hartgesottene Cloud-Verfechter haben Bedenken hinsichtlich „Was-wäre-wenn“-Szenarien, über die sie keine oder nur wenig Kontrolle hätten, beispielsweise einen Dienstausfall oder einen Hackerangriff. An dieser Stelle beruhigt es wenig zu wissen, dass bei Cloud-Providern mehrere Redundanz-Ebenen und Backups zum Standard gehören. Einige Anbieter beschäftigen einen Stab an professionellen Service- und Sicherheitsexperten, um den sie IT-Leiter in Unternehmen beneiden.

 

Nach den Anwendungen wandert die Infrastruktur in die Cloud

Cloud-Computing-Anbieter stehen in vielerlei Hinsicht gut da, manchmal besser als manche Inhouse-IT. Die Zuverlässigkeit von Cloud-Providern lässt sich deutlich besser einstufen als so manche interne Infrastruktur. Gleichzeitig wird die Cloud schneller und zuverlässiger, etwa weil sich die Leistung von Glasfasernetzen ständig verbessert. Latenzzeiten nehmen ab, obwohl immer mehr bandbreitenhungriger Traffic die Datenautobahn passiert. Dadurch fühlen sich Rechenzentren näher an als je zuvor. In der Folge wandern immer mehr Infrastrukturbestandteile in die Cloud. Unternehmen nutzen Infrastructure-as-a-Service-Anbieter verstärkt für ihre IT-Anforderungen.

Ein prominentes Beispiel hierfür ist das serverlose Computing. Es baut auf der Methodik der DevOps auf, die Softwareentwicklung und traditionelle IT-Teams kombiniert, um den Entwicklungszyklus von Systemen zu verkürzen. Das serverlose Computing geht noch einen Schritt weiter. Bei diesem Cloud-Computing-Modell fungiert die Cloud als Server, sodass sich Entwicklungsteams ganz auf den Code konzentrieren können, den sie ausführen möchten, und nicht auf operative Komplexitäten.

Außerdem gibt es neue Preismodelle, bei denen die tatsächlichen Ressourcen, die von einer einzelnen Anwendung oder sogar ihren Bibliotheksfunktionen genutzt werden, die Kosten bestimmen – nicht die vorab erworbene Kapazität.

 

Edge-Computing und Co.

Während IT-Bestandteile vom eigenen Rechenzentrum in die Cloud verlagert werden, gibt es einen zweiten Trend, Rechenzentrumsressourcen wieder zu lokalisieren, etwa beim Edge-Computing. Dabei werden Daten von Geräten, beispielsweise IoT-Devices, an den äußersten Rändern des Netzwerks verarbeitet, um den Datenverkehr zu anderen Rechenzentren zu reduzieren. Manchmal wird den Geräten sogar die Möglichkeit gegeben, als eigenständige Einheit zu agieren.

Einen zweiten, ähnlichen Ansatz gibt es für Probleme im Netzwerk. Dieser Ansatz sieht vor, kleinere Rechenzentren in der Nähe eines Unternehmens einzurichten, und dieses mit direkten Glasfaser-Backbones anzubinden. Netzwerk-Hops sollen reduziert, Redundanz soll ermöglicht und das Ausfallrisiko soll verteilt werden. Unternehmen wollen näher an die Cloud-Dienste rücken, auf die sie angewiesen sind, ohne dabei die Kontrolle über ihre wertvollen Daten zu verlieren.

Die Rechenzentren werden entweder extra gebaut oder an gemeinsam genutzten Standorten errichtet. Die Leistung dieser Verbindungen lässt Cloud-Services auf der ganzen Welt näher erscheinen als je zuvor. Der Unternehmens-Traffic konkurriert so weniger mit dem übrigen Datenverkehr. Der Nachteil: Diese Strategie kann zu einer weit verteilten Infrastruktur führen, die sich nur schwer verwalten lässt.

 

Herausforderungen der Vergangenheit bleiben

Die meisten Unternehmen setzen heute auf eine heterogene IT-Infrastrukturen mit unterschiedlichen Betriebssystemen und Multi-Cloud-Umgebungen. Allen Gewinnen zum Trotz: Die grundlegende Herausforderung bleibt bestehen. Daten müssen geschützt werden. Beim Schutz dieser Daten geht es nicht nur um Hacking. Es ist auch eine gute Governance erforderlich, um sicherzustellen, dass der gesamte Umgang mit diesen Daten den gesetzlichen Anforderungen und speziellen Anforderungen der Branche entspricht. Stichwort: Datenschutz und Compliance.

Virtualisierung ist eine grundlegende Technologie in der Cloud. Die Verwaltung virtueller Maschinen ist äußerst schwierig, gerade weil sie so einfach aufzusetzen sind und in vielen Fällen dynamisch erstellt und außer Betrieb genommen werden. Es ist nicht immer klar, welche Daten in einer virtuellen Maschine vorgehalten werden – insbesondere, wenn sie nicht aktiv ist. Daten sind dann mitunter ungeschützt und können offengelegt, entwendet und missbraucht werden, egal ob sie sich in der Cloud oder vor Ort befinden.

Die Verschlüsselung ist in Cloud-basierten und virtualisierten Umgebungen daher zum fundamentalen Bestandteil der Sicherheitstechnologie geworden. Aber sie muss ordnungsgemäß umgesetzt werden. Die Datenverschlüsselung einfach dem Cloud-Anbieter zu überlassen, ist keine gangbare Methode. Das Unternehmen ist für die Daten verantwortlich, deshalb muss es die Kontrolle über gespeicherte und übertragene Daten behalten. Im Ernstfall ist Verschlüsselung die einzige Möglichkeit, Daten zu schützen.

 

Effizientes und sicheres Verschlüsselungs-Management

Jedes Betriebssystem hat heutzutage eingebaute Verschlüsselungstechnologien. Und diese Tools funktionieren in der Regel gut, zumindest auf ihrer „Geräteinsel“. Einen echten Rundumblick gibt es mit diesen Insellösungen allerdings nicht – ein Risiko, gerade in heterogenen IT-Infrastrukturen mit Cloud-Ressourcen und VMs, wo der Strom der Daten nicht immer sofort offensichtlich ist.

Garry McCracken, Vice President Technology bei WinMagic

Wenn es um die Verschlüsselungsverwaltung in heterogenen IT-Landschaften geht, sollten IT-Verantwortliche anbieterübergreifende Management-Tools in Betracht ziehen, die einen Rundumblick über die Verschlüsselung aller Ressourcen und deren Steuerung ermöglichen. Auch die Verwaltung der Verschlüsselungs-Keys und die Authentifizierung der Endpunkte erfolgt mit diesen Tools zentral und Server-basiert, oft anhand vorhandener Netzwerk-Policies, etwa Active-Directory-Datenbanken.

Es ist unmöglich, ohne geeignete Verwaltungstools eine infrastrukturweite Verschlüsselung und Sicherheitskonformität zu erreichen. Wird die Verwaltung erschwert, passieren Fehler. Der Schutz von Daten in heterogenen IT-Infrastrukturen mit hohem Cloud- und Virtualisierungsanteil ist eine Gratwanderung, die in Zukunft sicher nicht weniger komplex werden dürfte.

Von Garry McCracken, Vice President of Technology Partnerships bei WinMagic

#Netzpalaver #Winmagic