5 Trends, die Edge-Computing vorantreiben

Das Bild der primitiven Edge, die bloß Daten weiterleitet, ist überholt. Denn Edge-Computing spielt in den verteilten Infrastrukturen des Internet of Things  eine zunehmend wichtige Rolle. Dabei funktioniert die Technologie nach folgendem Prinzip: Lokale Geräte verarbeiten Daten wie Sensormesswerte direkt und führen eine Geschäftslogik aus, ohne Daten an einen Server zu übertragen. Eine Edge-Runtime stellt hierfür die Funktionen für die Endgeräte bereit und steuert auf ihnen Module, beispielsweise Container. Die Kommunikation zwischen den Modulen und dem IoT-Hub in der Cloud übernimmt der Edge-Hub. Auf diese Weise lässt sich die Peripherie lokal und ohne permanente Internetverbindung steuern. Das System performt schneller und besser, da weniger Daten durch das Netzwerk müssen. Relevante Analyseergebnisse gehen zu einem späteren Zeitpunkt an den Cloud-Server, sobald eine Internetverbindung besteht.

Die Edge-Technologie kommt auch weiterhin dort zum Einsatz, wo es keine zuverlässige Netzwerkverbindung gibt oder der Datentransfer schlicht zu teuer wäre. Dabei steigt die Edge zu einem Cloud-Pendant auf, das immer mehr an Gewicht gewinnt. Das liegt an der voranschreitenden Vernetzung. Denn die „IoTisierung“ führt zu Szenarien, die Standardgeräte bei Weitem überfordern. Beispielsweise können diese eben nicht die 300 Sensoren eines Flugzeugtriebwerks im Flug überwachen, da dies die Datenanalyse und die Ableitung von Entscheidungen in Echtzeit einschließt.

Es zeichnen sich fünf Aspekte ab, welche die Edge-Technologie weiter vorantreiben:

 

Angebot an Hochleistungsrechnern wächst und löst Trend aus

Hersteller wie Nvidia und Intel investieren viel, um hochleistungsfähige Computer herstellen zu können. Diese kleinen und schnellen Superrechner sind bereit für komplexere Anwendungsfälle an der Edge. Softwareanbieter verschaffen deren hohe Rechenleistung und Speicherkapazität ganz neue Möglichkeiten.

Bereits heute können schlanke Edge-Runtimes, die Edge-Agents, mit wenig Rechenleistung und Speicherbedarf intelligente Datenpipeline-Orchestrierungsflüsse realisieren. Jene Edge-Agents sammeln über zahlreiche Protokolle Daten von Geräten, damit Module auf den Devices die Daten verarbeiten, Schlüsselinformationen extrahieren und bei Bedarf ein lokales Machine-Learning-Modell ausführen. Über einen Agenten-Management-Hub lassen sich tausende Agenten verwalten und überwachen. Dabei vereinfachen codefreie Benutzeroberflächen wie Cloudera Edge Management (CEM) es, komplexe Datenflüsse der Agentenschar zu designen. Auf diese Weise lässt sich einfach steuern, wie sich ein Agent verhalten soll – egal, an welchem Ort. Das Agenten-Management bindet ein Unternehmen am besten in eine Edge-to-Cloud-Data-in-Motion-Plattform ein. Denn so kann es die Richtlinien für Sicherheit und Governance einheitlich durchsetzen.

Die Mini-Supercomputer in der IoT-Peripherie befähigen dazu, in neue Leistungsdimensionen vorzustoßen – und den Trend zum „föderalen Data Lake“ an der Edge auszulösen. Wichtige geschäftskritische Entscheidungen fallen daher demnächst verstärkt an der Edge.

 

Machine-Learning und künstliche Intelligenz rücken näher an die Edge

Schon heute verfügen leistungsstarken Edge-Rechner über Grafikprozessoren (GPUs), um ML- und Künstliche-Intelligenz-Modelle ausführen zu können. Der Bedarf nach solchen Anwendungen ist da und wird zukünftig noch steigen. Man denke beispielsweise nur an anspruchsvollere Anwendungsfälle im Gesundheitswesen zur Patientenüberwachung oder in der Fertigung zur Qualitätskontrolle – die KI verlagert sich so sukzessive an die Edge.

 

An der Edge beginnt die digitale Transformation

Viele Unternehmen initiieren schon seit Jahren Digitalprojekte. Dabei zeigt sich, dass sie immer mehr an der Edge ansetzen – ganz gleich, ob ein Mineralölkonzern die Protokolldateien von 130k-Maschinen verarbeiten will oder eine Airline die vorausschauende Wartung der Bordkartendrucker angeht und dafür Edge-Agenten installiert. Beide Anwendungsfälle eint: Die geschäftliche Notwendigkeit, entweder Kosten zu senken oder die betriebliche Effizienz zu steigern, löst eine Transformation aus – und endet zusehends in einer Edge-Initiative.

 

Autonomes Fahren als Entwicklungsmotor und Blaupause

Derzeit arbeiten die führenden Automobilhersteller intensiv an vernetzten und autonomen Autos. Dabei liefern sie sich ein spannendes Wettrennen mit Tech-Konzernen und Startups. Solche Mobilitätskonzepte schieben die Entwicklung von Edge-Computing zusätzlich an. Denn diese sind davon abhängig, wie sich die Datenverarbeitung, Speicherung und ML-Modellanreicherung an der Edge weiter verbessern. Anhand dieser Entwicklungen können andere Branchen sehen, was an komplexen Szenarien umsetzbar ist. Dadurch sind sie in der Lage, autonome Anwendungsfälle für ihre eigenen Belange zu entwickeln.

 

Bedarf an sofortigen Erkenntnissen wächst

Ob für die Click-Stream-Analyse von Benutzern auf einer Website oder die Betrugserkennung bei der Kreditkartennutzung: Schon heute verlangen viele Anwendungsfälle Echtzeit-Einblicke, die sofort Erkenntnisse liefern – und dieser Bedarf wird steigen. Unternehmen versuchen sogar, von prädiktiven Analysen, die auf historischen und Echtzeit-Daten basieren, auf präskriptive Analysen umzustellen. Damit lässt sich prognostizieren, welche Ereignisse (nicht) eintreten und wie man darauf am besten reagiert. Auch dadurch entsteht ein starker Bedarf nach mehr Intelligenz an der Edge. Denn die Daten sollen nicht veraltet sein, wenn sie den Data Lake erreichen. Daher muss die Verarbeitung der Daten an der Edge erfolgen – oder zumindest lange bevor sie am Data Lake ankommen.

 

Perfekte Perspektive für die Peripherie

Daniel Metzger, Regional Vice President Central & Eastern Europe bei Cloudera

Im Vergleich zu heute werden wir in fünf Jahren eine weitaus leistungsstärkere und intelligentere Edge sehen. Diese verfügt dann über sehr viel mehr Rechenleistung und Speicherplatz, weshalb es zu einer Trennung zwischen Edge, Rechenzentrum und Cloud kommt. Unternehmen müssen sich deshalb auf Herausforderungen bei der Datenkonsolidierung einstellen. Mehrere Ökosysteme werden darauf setzen, Daten direkt von der Peripherie verarbeiten zu lassen, wozu das System Zugriffsrechte braucht. KI und ML werden in der Lage sein, anspruchsvollere autonome Anwendungsfälle umzusetzen. Bei all dem nimmt das Datenmanagement eine Schlüsselrolle ein, was nur beunruhigend wäre, wenn man es als Randerscheinung abtun würde.

Von Daniel Metzger ist Regional Vice President Central & Eastern Europe bei Cloudera