Die Mega-Cloud macht die Vernetzung irrelevant

Mathias Hein, Consultant, Buchautor, Redakteur
Mathias Hein, Consultant, Buchautor, Redakteur

Da sich die Cloud-Anbieter immer mehr das „Premises Cloud Hosting“ ausbauen, wird das alte Modell der Vernetzung nicht nur immer komplexer, sondern in vielen Fällen auch sinnlos.

Jeder kennt die Prognose, dass die öffentlichen Cloud-Services eine erhebliche Bedrohung der Unternehmens-IT darstellt. Unter Umständen soll die Cloud auch alle IT-Strukturen und Rechenzentren zerstören und nicht mehr nutzbare Ödnisse hinterlassen. Jeder, außer vielleicht extremen Fans der Cloud, weiß auch, dass dies heute und wahrscheinlich auch in Zukunft nicht eintritt. Trotzdem werden die öffentlichen Cloud-Dienste für massive Änderungen in der Vernetzung und der IT im Allgemeinen sorgen. Man muss kein Prophet sein um zu behaupten, dass es nicht ein Jahrzehnt dauern wird, bis diese Änderungen in der Planung und den Budgets auftauchen.

Wer die Entwicklungen der Cloud-Services der vergangenen Jahre genauer analysiert, wird erkennen, dass die Cloud inzwischen vollkommen neu interpretiert wird. Wir reden nicht mehr vom Ersatz-Rechenzentrum oder einem abgesetzten Rechenzentrum, sondern beschreiben ein neues IT-Modell, bei dem alle Rechenfunktionen aus einem gemeinsamen Pool von Ressourcen inklusive verteilter Anwendungen bereitgestellt wird. Die „Cloud der Zukunft“ kann man sich daher als einen riesigen virtuellen Computer vorstellen, auf dem alle Anwendungen und alle Speicherressourcen bereitgestellt werden und diese von jedem Nutzer am Netzwerk erreicht werden kann.

Benötigen wir dazu wirklich noch Netzwerke?

Das Riesen-Computer-Modell wirkt sich direkt an den Stellen, an denen sich die Benutzer verbinden, aus. In der Praxis heißt das, die Netze werden nicht mehr benötigt und die Nutzer schließen sich direkt an der virtuellen Ressource an. In der Mega-Cloud gibt es keine Netze mehr, da es nichts mehr zu verbinden gibt. In einem optimal an die Cloud angepassten Unternehmen befinden sich alle IT-Ressourcen direkt in Reichweite des Benutzers und alle Netzwerkverbindungen sind entweder Zugangsverbindungen zu der Cloud oder Verbindungen innerhalb der Cloud. Das netzwerklose Cloud-Modell wird aus folgenden Gründen entwickelt:

  • Die Nutzer in den Unternehmen werden zukünftig immer häufiger die mobilen Breitbandangebote nutzen. Aus diesem Grund werden zukünftig die öffentlichen Internet-Verbindungen die letzte Meile für die Nutzer bereitstellen.
  • Die Cloud-Anbieter arbeiten zukünftig direkt mit den Netzbetreibern zusammen. Die Verbindung zwischen den beiden Parteien wird zuerst über VPNs erfolgen. Im nächsten Ausbauschritt erfolgt die Verbindung über hoch-performante QoS-Trunks. Dadurch verschieben sich die bisherigen VPN-Service für die Unternehmen schrittweise zu einem „Multicloud Connection Bus.“

Im Ergebnis erhalten wir Virtual-Network-Operator (VNO) für drahtgebundene Netze, wobei die Cloud-Anbieter alle zukünftigen Dienste bereitstellen.

Das Riesen-Computer-Modell aus der Cloud hat auch Auswirkungen auf die IT-Ressourcen der Nutzer in den Unternehmen. Das Verwalten von Anwendungen, die auf Remote-Servern ablaufen, stellt ein erhebliches Problem dar. Befinden sich die Cloud-Ressourcen im Netz des Kundens, dann vereinfacht sich die Verwaltung der Ressourcen und kann per Fernzugriff erfolgen. Aus diesem Grund ist zu erwarten, dass bis zum Jahr 2020 alle großen Cloud-Anbieter ihre Rechen-, und Applikationsleistungen als „Cloud Hosting aus der Premises“ auf den von ihnen bereitgestellten und verwalteten Servern anbieten.

Diese Tendenzen sind bereits im Microsoft-Azure-Stack und in Amazon-Greengrass zu erkennen. Beide Angebote erlauben es den Benutzern, die benötigten Cloud-Anwendungen auf ihren eigenen Geräten auszuführen. Daher ist es nur noch ein kleiner Schritt, um den Umfang der auszuführenden Services zu erweitern und diese als gemanagte Elemente anzubieten. Auch die vielen IoT-Ressourcen erfordern kürzere Wege für die Steuerung bzw. die Verwaltung. Nur dadurch kann gewährleistet werden, dass die abgefragten und übermittelten Daten und Ereignisse zeitgerecht an die Prozesse weitergeleitet werden.

Ausgelagerte Cloud-Server

Der Prozess wird nicht zu einer Umkehrung bzw. zum Ende der Server-Konsolidierung führen. Das Ziel ist die Server-Konsolidierung auf einer virtuellen Ebene. Dadurch lassen sich die Server, als virtuelle Ressourcen, ortsunabhängig verwalten. Bei dieser Betrachtung muss man jedoch die physikalischen Reparaturen vernachlässigen. Sollte ein Server Probleme bereiten, muss man die Techniker nicht mehr zum jeweiligen Gerät hetzen. Stattdessen verschiebt man die Prozesse vorübergehend auf andere Ressourcen. Den Ersatz kann man bei Gelegenheit zum Nutzer schicken. Da sich die Geräte inzwischen per Plug-and-Play installieren lassen, benötigt man dazu nicht einmal mehr ausgebildete Techniker. Dadurch können die Remote-Server als fester Bestandteil der Cloud-Ressourcen angesehen werden und es ist zukünftig gleichgültig, wo die Cloud beginnt bzw. endet.

Wo bleiben die Anwendungen in diesem Szenario? Hier versteckt sich die wirkliche Revolution der Cloud. Heute weiß ich bereits nicht, wo die Anwendung arbeitet. Wen interessiert das überhaupt noch? Die Anwendungen arbeiten in der Cloud auf virtuellen Ressourcen, die fast überall sein können. Dieser Trend ist nicht mehr aufzuhalten, weil wir die Anwendungen inzwischen selbst virtualisieren.

Funktionale Programmierung

Die Cloud-Anbieter streben inzwischen eine funktionale Programmierung an, welche durch folgende Eigenschaften gekennzeichnet ist:

  • Die Computerprogramme werden als Funktionen verstanden, die für eine Eingabe eine Ausgabe liefern, die nur von dieser abhängig ist.
  • Funktionen werden nicht als Abfolge von Anweisungen dargestellt, sondern als ineinander verschachtelte Funktionsaufrufe.
  • Funktionen sind gegenüber allen anderen Datenobjekten gleichberechtigt. Das bedeutet, dass sie als Parameter in Funktionen eingehen dürfen und ebenso als Berechnungsergebnisse aus Funktionen hervorgehen können. Insbesondere können Funktionen wie andere Datenobjekte zur Laufzeit erstellt werden oder entfallen.
  • Eine Funktion kann auf Variablen Bezug nehmen, die dem Kontext angehören, in dem ihre Erstellung erfolgt ist. Dies kann sie auch dann noch tun, wenn sie den Kontext verlassen hat. Die Belegung der Variablen zum Zeitpunkt des Verlassens dieses Kontextes wird dann innerhalb dieser Funktion eingefroren. Eine so entstandene Funktion heißt „Closure“ und die eingefrorenen Variablenbelegungen heißen Closure-Variablen.
  • Funktionsdefinitionen können ohne explizite Namensgebung literal in der Stellung eines Funktionssymbols verwendet werden. Solche Funktionen heißen anonym und werden oft salopp „Lambdas“ genannt.

Es wird Zeit dauern, bis die funktionale Programmierungskonzepte zum Durchbruch gelangen, aber diese werden die Cloud- und Anwendungsangebote noch flexibler machen. Diese ultimative Elastizität stellt den letzten Schritt der Virtualisierung dar und wird auch die Begriffe „ Server“, „VMs“ und „Container“ von der IT-Bildfläche verschwinden lassen. Die unsichtbare Maschine wird zukünftig irgendwo in der Cloud beheimatet sein und alle Anwendungen liefern.

Fazit

In der Vergangenheit definierten die Netzwerke den Großteil der Workflows, weil diese die Informationsströme bereitstellten. In der Zukunft werden alle Verarbeitungsprozesse um die Cloud herum angesiedelt werden. Weitet man die Cloud bis zum Benutzer aus, dann wird die Vernetzung nicht nur irrelevant, sondern auch unmöglich. Diese Konzepte werden in Kürze bereits umgesetzt. (mh)