Der Begriff Edge Computing selbst kommt aus der Netzwerktopologie (“Edge”, zu deutsch Rand), wie es auch die Edge-Computing-Definition auf Wikipedia erklärt: Edge Computing bezeichnet im Gegensatz zum Cloud Computing die dezentrale Datenverarbeitung am Rand des Netzwerks, der sogenannten Edge.
Ähnlich dem Cloud Computing, das in den ersten Jahren viel Begriffsverwirrung und Cloud-Washing erleben musste, grenzt die Edge an die verschiedenen Computing-Topologien und -Charakteristika an und muss um ihre klare Wahrnehmung kämpfen. Wir reden deshalb nur von Edge Computing, wenn sowohl der Ort der betrachteten Compute-Power dezentral ist, als auch die typischen Charakteristika des Edge Computing erfüllt sind.
Edge Computing - Die dezentrale Hälfte der IoT-Welt
Als Edge Computing betrachten wir in der IoT-Welt die untere Hälfte, nahe an Sensoren und Aktuatoren von digitalisierten Dingen. Ganz kleine Edge-Devices haben kein Filesystem und sehr große Einschränkungen und werden oft Constrained Controller genannt. Die mittleren Devices in der Raspberry-Pi-Klasse, die schon eine kleine Linux Distribution ausführen, werden entsprechend Non-Constrained-Controller genannt.
Zu Beginn des Edge-Computing-Trends sprach man (besonders Cisco) auch von Fog Computing. Damit war die Intelligenz in den verteilten, aber größeren (Non-constrained) Devices wie Gateways und Router gemeint. Edge Computing kam zunächst aus den kleineren (constrained) Devices. Im obigen Bild hätte man das Gebäude als Fog und den Raum und den programmierbaren Sensor als Edge bezeichnet. In den letzten zwei Jahren wird der Begriff Fog Computing immer weniger benutzt und man spricht im Zusammenhang mit IoT fast nur noch von Edge Computing.
Natürlich ist die Grenze nach oben etwas fließend. Ein “Server” in einem Bürogebäude kann dabei verschiedene Aufgaben übernehmen. Wenn er ein klassischer Server für Client-Server-Computing wie beispielsweise ein File-Server oder Datenbankserver darstellt, würden wir ihn nicht als “Edge” Computing bezeichnen. Ein zentraler Gebäude-Automatisierungs-Server, der Licht, Klima, Security und womöglich Brandschutzaufgaben hat und viele tausend Sensoren überwacht, bezeichnen wir hingegen als Edge Computing. Die obere Grenze von Edge-Devices kann also sehr wohl in der Leistungsfähigkeit mit Office-PCs und Servern überlappen. Meist sind die starken Edge-Devices als “Industrial PCs” ganz anders gebaut. Insgesamt macht nicht nur die Device-Größe, sondern die Aufgabe in der Software-Architektur den Unterschied.
Edge-Computing-Charakteristika
Edge Computing zeichnet sich demnach vor allem durch lokale Rechenleistung, sehr niedrige Latenz zu den angeschlossenen Devices und Echtzeitfähigkeit aus. Edge Computing ist auch bewusst selten hochverfügbar oder mit großen Speicher- oder CPU-Leistungen ausgelegt, um Kosten und Stromverbrauch zu sparen. Fällt ein Edge-Device aus, das beispielsweise als Gateway zwischen Rauchmeldern und der Brandmeldezentrale fungiert, verbinden sich drahtlose Sensoren (Rauchmelder) selbstständig auf das Gateway des Nachbar-Raumes. Insbesondere moderne drahtlose Mesh-Topologien ggf. auch parallel über mehrere Funkfrequenzen, machen so aus einem kleinen nicht-hochverfügbarem Edge-Device eine extrem ausfallsichere IoT-Architektur. Im Idealfall sind kleine Edge-Devices eher mit einzelnen Containern in einem Cloud-Cluster vergleichbar.
Typische Aufgaben des Edge Computing sind sowohl traditionelle Aufgaben, die auch aus dem embedded Computing bekannt sind, als auch moderne Möglichkeiten, die durch leistungsfähigere Edge Devices und leicht-gewichtigere Software-Frameworks möglich werden:
Konnektivität & Gateway-Funktionen sind klassische Aufgaben von Edge-Devices. Hierbei werden meist lokale Feldbusse oder drahtlose Netzwerke (z.B. Modbus oder Zigbee) in IP-Kommunikation übersetzt. Diese Edge-Devices haben deshalb neben direkten Sensor-Eingängen oft verschiedene drahtlose oder Wired Netzwerk-Interfaces.
Middleware gehört heute schon fast in jedes Edge-Device. Während einfache Sensoren ihre Daten meist nicht speichern können und in Real-Time “loswerden” müssen, können mittlere Edge-Devices die Echtzeitdaten sicher annehmen und als Queue in die nicht-echtzeitfähige Netzwerkwelt nach oben weitergeben. Dabei kommen nicht nur einfache Protokolle wie MQTT, sondern auch industrienahe Referenz Architekturen wie OPC UA zum Einsatz.
Security muss Ende-zu-Ende bedacht werden, also vom Sensor vor Ort bis in die Cloud beim Hyperscaler. Dazu muss auch ein relativ kleines Device, beispielsweise MQTT, über TLS 1.2 (Transport Layer Security) tunneln können. Um dies für Entwickler einfacher und konsistent zur Security-Infrastruktur in der Cloud zu machen, investiert Amazon beispielsweise in das Free-Real-Time Operating System “FreeRTOS”. Diese Open Source Distribution ermöglicht eine sichere Kommunikation bis runter zu Edge-Devices oder intelligenten Sensoren im einstelligen Euro-Bereich der Hardwarekosten. Das Enablement von einer möglichst großen Bandbreite von Devices ist hier entscheidend.
Aggregation & Pre-Processing sind schon lange auf Edge-Devices möglich. Hierbei bringt das Edge Computing Semantik in die Daten, macht es also auch einfacher, ähnliche Daten aus verschiedenen Quellen zu erkennen. Sehr kleine Edge-Devices können beispielsweise einfach redundante Daten unterdrücken, während mittlere oder größere Devices anwendungsspezifische Logik in die Edge bringen. Eine Menge Innovation konnten wir bei den aktuellen Edge-Technologie-Anbietern in der Art und Weise sehen, wie diese Logik implementiert ist. Führende Edge-Technologien erlauben Code-Mobilität (z.B. AWS mit Lambda in der Cloud und Greengrass auf der Edge) oder sogar die Möglichkeit, auf Edge-Devices die gleichen Container zu deployen, die man in der Cloud, beispielsweise in einem Kubernetes-Cluster, deployed. Dies ist insbesondere für die IoT-Plattformen von IBM, Microsoft, OSRAM und SAP angekündigt.
Analytics für Backends oder direkt für Menschen ist erst jetzt richtig möglich und ist noch ein großer Differentiator auf der Edge. Zwar können kleine Edge-Devices, die beispielsweise als 300-Euro-Datenerfassungs-Box in professioneller Verpackung an Industrieanlagen hängen, schon lange einfache Analysen machen. Doch erst jetzt kommen Bandbreite, Rechenleistung und niedrige Hardware-Preise zusammen. So rechnet ein Edge-Device an einer Gasturbine beispielsweise das Audio-Signal eines Mikrofons in Echtzeit in das Frequenzspektrum, um nur diese kleinen Datenmengen ins Backend zu transportieren. Parallel dazu kommen einige leichtgewichtige Software-Stacks auf den Markt, die es Endbenutzern erlauben direkt mit einem Browser auf mittleren Edge Devices mit guter Performance Roh-Daten anzuschauen. Sehr interessant in dem Umfeld ist beispielsweise der Tick-Stack in der Time-Series Datenbank Influx mit der Chronograf Visualisierung oder auch das Open-Source-Analytic-Werkzeug Grafana. Beide laufen exakt gleich mit ein paar Gigabyte auf einem Raspberry Pi (35 Euro) oder im dreistelligen Terra-Byte-Bereich in Containern auf einem Hyperscaler.
Machine Learning ist differenzierend in der Edge. Wie Crisp Research schon im Machine-Learning Marktüberblick und vielen Analyst Views beschrieben hat, ist der Machine-Learning-Markt in massiver Bewegung. Für die IoT Edge konnten sich starke Innovatoren wie die Foghorn Systems mit Machine-Learning-Technologie auf (mittleren) Edge-Devices positionieren. Edge-Devices werden mittelfristig von vielen Machine-Learning-Frameworks unterstützt werden. Allen voran sind Apache MXNet (Open Source/von AWS genutzt) und TensorFlow Lite (Open Source/von Google supported) bereits auf Edge-Devices verfügbar.
Neben diesen ganzen Funktionalitäten, die auf der Edge selbst laufen, gibt es ein Reihe von Management-Funktionalitäten, die zwar in der Cloud oder On-Premises laufen, aber überhaupt den Betrieb von vielen Edge-Devices möglich machen.
Dies sind wichtigsten Edge-Management-Funktionalitäten, die ebenfalls als Kriterien zu Edge Technologien im aktuellen Vendor Universe IoT bewertet wurden:
Device Management beinhaltet Asset-Management, Firmware-Deployment und Rollout-Management sowie Alarm Lösungen, um Funktionsstörungen auf einem Edge Device zu beheben.
Connectivity Management ist besonders für Edge-Devices hilfreich, die mit drahtlosen Verbindungen arbeiten. Der Provisionieren von Mobilfunk-Sim-Karten bis hin zum Management von NB-IoT- oder LoRaWan-Konnektivität fällt in diese Kategorie. Besonders bei wertvollen Assets, beispielsweise in Fahrzeugen oder in der Logistik ist es extrem wichtig, keine Edge Devices “zu verlieren”.
Ad-Hoc Analytics bildet nicht nur das serverseitige Gegenstück zur End-User-Analytic direkt aus Edge-Devices, es ist auch der Einstieg in Business-Anwendungen, die oft ohne Programmierkenntnisse zusammengeklickt werden können.
Security Backend ist die zentrale Seite und geht Hand in Hand mit den Edge-Devices. Device-Identitäten und damit verbundene Security-Zertifikate müssen an zentraler Steller gemanagt werden um Sicherheitslücken zu vermeiden.
Welche Angebote es im Bereich Edge gibt, zeigt das kürzlich veröffentlichte Vendor Universe IoT mit insgesamt 40 Angeboten. In der Gruppe der starken Innovatoren finden sich vor allem Anbieter, die sich auf bestimmte innovative Funktionalitäten auf der Edge konzentrieren. Die reifen Accelerators hingegen glänzen meist durch ein recht umfangreiches Portfolio aus den eher traditionellen Funktionalitäten auf der Edge und den Edge Management Funktionalitäten, die sie als Cloud Service anbieten.
Ein großes Plus bei der Bewertung der Edge-Technologien war es, wenn ein Hersteller eigene Devices anbietet, so dass ein Anwender sicher sein konnte, dass die Funktionalität auf der Edge auch wirklich zuverlässig läuft. Alternativ konnten sich Edge-Technologie-Anbieter durch eine Liste von zertifizierten Devices bzw. Partnerschaften mit Hardware-Herstellern qualifizieren.