Mehrschichtige Edge-Architektur

 

Image by Tumisu from Pixabay

Mit dem Internet der Dinge (IoT) und dem Industrial-Internet of Things (IIoT) stößt das Networking an eine neue Grenze. Bei Milliarden neuer Geräte, die Konnektivität benötigen, und Rechenanforderungen, die an jedem denkbaren Ort entstehen, sind die Konsequenzen enorm.

Die Hauptimplikationen ergeben sich aus einem unaufhaltsamen Trend, der sich in den letzten 10 Jahren entwickelt hat und der sich voraussichtlich in den nächsten Jahrzehnten fortsetzen wird. Anwendungen werden aus dem homogenen IT-Stack mit seinem einzigen, zentralen Standort je Unternehmen ausgelagert und überall und jederzeit über weite Distanzen verteilt und geteilt.

Dies ist ein Trend, der für IoT und IIoT genauso gilt wie für die gesamte IT. Das alte Modell „Maschine zu Maschine“ mit einem sehr einfachen Gerät im Feld, das mit einer Cloud verbunden ist, gehört der Vergangenheit an. Es ist mittlerweile klar, dass IoT und IIoT auf eine ganz andere Art von Architektur angewiesen sind, bei der es einfach unmöglich sein wird, alle Daten in eine zentrale Cloud zurückzuleiten. Stattdessen geht es darum, eine mehrschichtige Architektur voranzutreiben, die allgemein als Edge bezeichnet wird.

 

Mesh-Application-Services-Architecture

Es gibt viele verschiedene Edge-Typen, die von der Fabrik bis hin zum Rechenzentrum reichen. Sie stellen verschiedene Schichten dar, in denen verschiedene Verarbeitungsebenen zum Tragen kommen. Garter bezeichnet dieses Modell als Mesh-Application-Services-Architecture (MASA), und es geht darum zu variieren, wo die Rechenleistung erbracht wird, abhängig davon, wo es am vorteilhaftesten ist.

Dies wirkt sich auf die Rolle der Rechenzentren aus. In den letzten 10 Jahren hat sich die Zentralisierung der Datenverarbeitung auf dem Cloud-Modell vollzogen. Doch jetzt verzeichneten wir ein Wachstum des Rechenaufwands außerhalb der Cloud, auch wenn die Cloud immer noch expandiert. Wir verzeichnen ein Umsatzwachstum bei Blade-Servern und IoT-Gateways infolge des Ausbaus von mehrstufigen Architekturen.

Das Problem aus der Sicht des Netzwerks ist, dass die traditionelle Art und Weise, wie Netzwerke verwaltet werden, mit diesen massiv verteilten Architekturen und den mehrschichtigen Rechen- und Speicherebenen nicht kompatibel ist. Der Einsatz proprietärer Hardware, Circuits und VPNs – die alte Art der Bewältigung – bietet nicht die Agilität und Flexibilität, sich mit jedem beliebigen Ort zu verbinden oder nach Bedarf zu skalieren. Die nächste Generation des WAN ist das Internet, und dort müssen wir uns auf den Ausbau von MASA konzentrieren, wenn wir die Geschäftsergebnisse erzielen wollen, die Unternehmen erwarten. Dies ist an sich schon eine Herausforderung, die eine Art Cloud-native Konnektivität erfordert, die all diese Herausforderungen löst.

Die Betreiber von Rechenzentren haben eine jeweils andere Strategie für das Problem. Viele reagieren, indem sie mehr für die Cloud-Service-Provider bereitstellen – mehr Leistung, mehr Platz, mehr Standorte für die hyperskalierte Cloud. Das sind sowohl Public Clouds wie AWS und Microsoft Azure als auch andere große Cloud-basierte Unternehmen wie die großen CDNs. Andere gehen in die völlig entgegengesetzte Richtung. Bei EdgeConnex und Vapor IO geht es darum, mehr an die Edge zu bringen. Die großen Telcos denken auch in diese Richtung, weil sie über viele Legacy-Standorte verfügen, an die ihr Core-Netzwerk angebunden ist.

 

Security-by-Design

Wenn viele verteilte Edge-Standorte betrieben werden, können diese aus nur wenigen Racks bestehen. Möglicherweise gibt es keinen Raum, um mehrere Leitungskreise darin zu verbinden, wie dies in einem großen Rechenzentrum der Fall wäre, in dem viele Netzwerke zusammengeschlossen sind. Aus diesem Grund entscheiden sich viele für eine proprietäre Option, was eine potenziell gefährliche Strategie ist. Eine weitere Möglichkeit ist die Nutzung des öffentlichen Internets mit softwaredefinierten Netzwerküberlagerungen. Die Aufgabe besteht dann darin, eine hochsichere, anwendungsspezifische Konnektivität aufzubauen, die vom IoT-Gerät bis zurück in die Cloud reicht, überlagert von einer der Architekturstufen, die die Verarbeitung durchführen.

Ein sicheres Overlay sichert alles, von den übertragenen Daten bis zu den Endpunkten. Auf diese Weise wird ein minimales Risiko durch die Implementierung von Security-by-Design mit Funktionen wie Zero Trust, Mikrosegmentierung von Anwendungen, vertrauensbasierter Konnektivität aus Hardwarezertifikaten und softwaredefinierten Perimetern gewährleistet. Gleichzeitig kann das andere Problem des öffentlichen Internets behoben werden, indem die Performance-by-Design gewährleistet wird und die Konnektivität mit zusätzlicher Leistung und Zuverlässigkeit ausgestattet wird. Da es sich um eine Software- und API-basierte Lösung handelt, kann sie bei Bedarf mit Cloud-basierten Tools wie Terraform orchestriert werden.

Philip Griffiths, Leiter EMEA-Partnerschaften bei NetFoundry

Unternehmen, die sich für diesen neuen softwaredefinierten Ansatz des IoT entscheiden, profitieren von einer deutlich geringeren Komplexität. Sie schaffen eine einfache Umgebung für IoT-Geräte, mit denen sie sich verbinden können. Darüber hinaus können sich die Entwickler von IoT-Lösungen auf das konzentrieren, was sie am besten können – Innovation, Entwicklung neuer Anwendungsszenarien, mit all der Performance, die auch in einem Rechenzentrum bereitsteht.

NetFoundry kooperiert mit Akteuren wie Microsoft, AWS EdgeConnex, CoreSite, Digital Ocean, Vapor IO und anderen, um solche Herausforderungen zu lösen, indem die Simplizität eines API-basierten Ansatzes genutzt wird, um eine neue und einfachere Art von cloud-nativer Datenkonnektivität zu entwickeln, die für die IoT- und IIoT-Ära geeignet ist.

Von Philip Griffiths, Leiter EMEA-Partnerschaften bei NetFoundry

#Netzpalaver #NetFoundry