Cloud Computing ist ein etabliertes Paradigma bei der Entwicklung von IT-Anwendungen. Aber dieser zentralistische Ansatz ist kein Allheilmittel. Dezentrale Alternativen wie Fog- und Edge-Computing halten vermehrt Einzug. Sie sind der Cloud ein guter Gegner und Mitspieler zugleich.
Bei der Analyse von Daten werden häufig Konzepte zentraler Architekturen angewendet: alle Daten aus allen relevanten Quellen fließen in einen zentralen Data Lake, der sich wiederum in einer zentralen Cloud-Plattform befindet. An dieser Sammelstelle lassen sich hochwertige Analysefähigkeiten bis hin zu Machine Learning und Künstlicher Intelligenz sehr gut aufbauen. Für fachliche Anwendungsfälle, die per se zentral gesteuert werden, wie beispielsweise die Zielgruppendefinition einer Marketing-Kampagne, ist das auch optimal.
Warum die Cloud nicht reicht
Es gibt aber auch Anwendungsfälle, bei denen die Daten dezentral verarbeitet werden: So muss ein autonom fahrendes Auto selbst entscheiden, wie es mit einer brenzligen Verkehrssituation klarkommt. Eine Maschine in der Produktion muss prompt reagieren, wenn der Prozess aus dem Ruder läuft oder die Qualität nicht stimmt. Aber auch jenseits des Industrial Internet of Things (IIoT) finden sich Fälle, die eine dezentrale Intelligenz erfordern. Dazu gehören der Einsatz von Drohnen oder Flugtaxis aber auch Anwendungen rund um Gesichtserkennung, wie zum Beispiel Smart Payment und Smart Shopping, Stichwort Amazon Go.
Um die analyserelevanten Daten des Fahrzeugs, der Drohne oder des mobilen Wallets in den zentralen Data Lake zu transferieren, braucht es eine Verbindung mit ausreichender Bandbreite. Aber nicht immer und überall ist eine schnelle 4G/5G-Verbindung verfügbar. Die durch das Netzwerk verursachte Latenz zwischen dem Ereignis auf der Straße und der Rückmeldung aus dem zentralen Backend mit der vorgeschlagenen Reaktion ist zu lang. Ein weiterer Aspekt ist die Sicherheit: Der Transfer der Daten kann in bestimmten Regionen oder zu bestimmten Zeitpunkten anfälliger sein für Hacks als in geschützten Bereichen.
Edge- und Fog-Computing als Gegenstück zur Cloud
Für viele Anwendungsfälle also sollen Intelligenz und Analyse der Daten dezentral bereitgestellt werden, ohne von zentralen Data Lakes, der Cloud und der Netzanbindung dorthin abhängig zu sein. Die Ansätze dafür bieten Fog- und Edge-Computing.
Beim Fog-Computing werden die dezentralen Daten in einem lokalen Netzwerk verarbeitet und nicht in einem zentralen Datenbecken in der Cloud. Vorteilhaft ist das beispielsweise für Verkehrsleitsysteme in Städten. Die Rechenkapazität, die sich innerhalb eines WLANs befindet, wird quasi als lokale Cloud gebündelt, um dezentrale Datenanalysen auszuführen.
Smart Meters hingegen sind ein Kandidat für Edge-Computing. Hier fallen große Mengen an Daten an, die besser dezentral vorverarbeitet und bezüglich Relevanz gefiltert werden, ehe sie in einen zentralen Data Lake transferiert werden. Edge-Computing geht gegenüber Fog-Computing noch einen Schritt weiter: Die Daten werden gleich im Edge, also in der Maschine, dem Auto, dem Mobiltelefon analysiert, ohne das lokale Netzwerk zu bemühen. Ein weiterer sehr komplexer Anwendungsfall ist das autonome Fahren und Fliegen. Die Echtzeitanalyse ist in sehr vielen Fällen unbedingt erforderlich. Zudem sind die lokal erzeugten Datenmengen sehr groß. So groß, dass es nicht ratsam ist, die kompletten Daten zu Zeitpunkten und Orten mit nur schwacher Netzanbindung zu übertragen.
Wie Edge und Cloud zusammenspielen
Im autonomen Auto werden KI-Algorithmen lokal auf den Daten ausgeführt und intelligente Reaktionen auf die aktuelle Verkehrssituation mit minimaler Latenzzeit gegeben. Die Daten werden weiterhin an das Backend übertragen, aber nicht notwendig permanent und während der Fahrt. Ein Großteil des Datentransfers sollte eher nach der Fahrt in einem geschützten Bereich (Garage) mit hoher Netzwerkbandbreite stattfinden (1).
In einem zentralen Data Lake fließen die Daten vieler autonomer Autos zusammen. Das bildet die Grundlage und passende Umgebung, um neuronale Modelle zu erstellen oder zu verbessern, die damit die bestmöglichen Reaktionen auf Verkehrssituationen beschreiben (2). Diese Modelle wiederum werden an das autonome Auto übertragen (3) und dort dann lokal auf aktuelle Daten angewendet (4).
Warum Edge Computing heute möglich ist
Früher war Edge-Computing kaum denkbar. Die Möglichkeiten der dezentralen Hardware waren für diese gigantische Datenverarbeitung zu begrenzt. Heute haben wir moderne, speziell für Edge Computing konzipierte Chips und Sensoren. Sie stellen ausreichend gute Fähigkeiten für lokale Verarbeitung, Transfer, Speicherung und Sicherheit von Daten bereit.
Cloud-First ist out
Ähnlich wie der zentrale Mainframe von der Client-Server-Architektur abgelöst wurde, wird ein großer Teil der Datenverarbeitung aus dem Cloud-Rechenzentrum heute in die verteilten Geräte verlagert. Die dezentrale Intelligenz für Smart Devices ist eine Entwicklung, die sich durchsetzen wird. Auch das Analystenhaus Gartner betrachtet das Edge Computing als einen der wichtigsten IT Trends der aktuellen Stunde.
Höchste Zeit für Unternehmen, sich vom Cloud-only-Gedanken zu lösen und umzudenken: Unternehmen sollten Anwendungsfälle identifizieren, die intelligente Entscheidungen zeitnah und dezentral erfordern. Auch Anwendungsfälle, die aktuell an einer zu schlechten Netzanbindung an ein zentrales Rechenzentrum in der Cloud oder on-Premise scheitern, bieten sich für Edge- bzw. Fog-Computing an. Dezentrale Hardware muss für Fog- oder Edge-Computing aufgerüstet werden.