5 Szenarien

Wo Edge Computing Sinn macht

11.04.2023
Von 


Isaac Sacolick ist Autor des Amazon-Bestsellers "Diving Digital: The Leader's Guide to Business Transformation thourh Technology". Er schreibt als freier Autor unter anderem für unsere US-Schwesterpublikation CIO.com.

 
Edge Computing ist in manchen Situationen das Beste, was Sie tun können. Hier fünf Beispiele.
Edge Computing macht nicht immer Sinn.
Edge Computing macht nicht immer Sinn.
Foto: maradon 333 - shutterstock.com

Edge Computing bringt die Infrastruktur geografisch in die Nähe des Ortes, an dem Daten erzeugt oder konsumiert werden. Die Daten werden dabei direkt am Netzwerkrand verarbeitet, statt sie dazu vorher in Public oder Private Clouds zu migrieren. Die Infrastruktur besteht dabei aus einfachen Standard-Servern - oder hochentwickelten Plattformen von AWS (AWS for the Edge), Azure (Stack Edge) oder Google Cloud Platform (Distributed Cloud). Dabei stellt Edge Computing besondere Anforderungen - unter anderem an Performance, Zuverlässigkeit, Sicherheit und Compliance. Um diese Anforderungen zu unterstützen, können Rechenleistung, Storage und Bandbreite in die Edge-Infrastruktur verlagert werden. So wird eine Skalierung von Applikationen ermöglicht, wie sie in einer zentralisierten Cloud nicht realisierbar wäre.

"Edge Computing eröffnet Business-Entscheidern einen neuen Weg, um engere Beziehungen zu Kunden und Partnern aufzubauen und Einblicke in Echtzeit zu erhalten", konstatiert Mark Thiele, CEO beim Plattformanbieter Edgevana. Das setzt jedoch eine optimale Infrastruktur voraus - die schwer zu bestimmen und erkennen sein kann, wenn DevOps-Teams in den Frühphasen der Entwicklung an ersten Proof-of-Concepts arbeiten. Verpassen Sie den richtigen Zeitpunkt dafür, sind die Teams jedoch möglicherweise gezwungen, ihre Anwendungen neu zu gestalten, beziehungsweise grundlegend zu überarbeiten. Das erhöht die Entwicklungskosten, bringt Zeitpläne zum Erliegen und erschwert es, die angestrebten Ergebnisse zu erreichen.

Das ist auch Arul Livingston, Vice President of Engineering bei OutSystems, bewusst: "Da Anwendungen zunehmend modernisiert und integriert werden, sollten Unternehmen Edge-Technologien und -Integrationen möglichst frühzeitig im Entwicklungsprozess berücksichtigen. Ansonsten drohen Performance- und Sicherheitsprobleme."

5 Szenarien, in denen Edge Sinn macht

Eine Edge-Infrastruktur zu einem frühen Zeitpunkt im Entwicklungsprozess zu modellieren, kann zu intelligenteren Architekturen führen. Dazu müssen DevOps-Experten jedoch sicherstellen, dass der Einsatz von Edge Computing auch echte Vorteile bringt. Wie zum Beispiel in folgenden fünf Szenarien:

1. Performance und Sicherheit in der Fertigung optimieren

Was, wenn eine Verzögerung zu Verletzungen der Arbeiter führen kann? Was, wenn für die Herstellung teure Materialien benötigt werden und es zu erheblichen Einsparungen führen kann, wenn man Fehler ein paar hundert Millisekunden früher erkennt?

"In der Fertigung kann der effektive Einsatz von Edge Computing den Ausschuss reduzieren, die Effizienz verbessern, Verletzungen am Arbeitsplatz verhindern und die Verfügbarkeit der Anlagen erhöhen", stellt CEO Thiele fest. Wenn erhebliche Risiken oder Kosten entstehen, wie etwa bei industriellen Fertigungssystemen, chirurgischen Plattformen oder autonomen Fahrzeugen, kann Edge Computing eine höhere Performance und Zuverlässigkeit bieten.

2. Latenz für Echtzeit-Interaktionen reduzieren

Für die meisten Finanzplattformen ist eine Reaktionszeit von weniger als einer Sekunde eine grundlegende Anforderung - die auch bei vielen anderen Anwendungen erwartet wird, die schnelle Reaktionszeiten erfordern. Amit Patel, Senior Vice President bei Consulting Solutions, erklärt: "Wenn Echtzeit-Entscheidungen für Ihr Unternehmen wichtig sind, dann ist es entscheidend, die Latenzzeit zu verringern. Insbesondere vor dem Hintergrund, wie viele vernetzte Geräte Unternehmen einsetzen, um Daten zu erfassen."

Wenn es Tausende von Datenquellen und Entscheidungsknoten gibt, wird die technologische Herausforderung, konsistente Erfahrungen mit niedrigen Latenzen zu bieten, noch größer. Beispiele hierfür wären etwa Smart Farming, das Metaverse oder andere, großangelegte Business-to-Consumer-Erfahrungen.

Pavel Despot, Senior Product Manager beim Sicherheitsanbieter Akamai, kennt weitere Anwendungsfälle: "Edge-Infrastrukturen eignen sich für alle Workloads, die geografisch verteilte Endnutzer mit geringer Latenz, Ausfallsicherheit und hohem Durchsatz erreichen müssen. Dazu gehören etwa Medien-Streaming, Banking, E-Commerce, IoT-Geräte und vieles mehr."

Laut Cody De Arkland, Director of Developer Relations bei LaunchDarkly, sind globale Unternehmen mit vielen Bürostandorten oder Hybrid-Work-Modellen im großen Maßstab weitere Use Cases: "Wenn man näher am Edge arbeitet, können die Workloads noch näher an den Menschen verteilt werden. Wenn Ihre Anwendung geringe Latenzen erfordert, sollten Sie eine Edge-Infrastruktur in Betracht ziehen und sich Gedanken darüber machen, was genau am Netzwerkrand laufen sollte."

3. Zuverlässigkeit geschäftskritischer Anwendungen erhöhen

Eine Edge-Infrastruktur sollten Sie nach Meinung von Jeff Ready, CEO von Scale Computing, auch dann in Erwägung ziehen, wenn:

  • Ausfallzeiten hohe Kosten verursachen,

  • Reparaturen viel Zeit in Anspruch nehmen, oder

  • sich der Ausfall der zentralen Infrastruktur auf mehrere Prozesse auswirkt.

Der CEO nennt zwei Beispiele: "Stellen Sie sich ein Frachtschiff mitten auf dem Ozean vor, das sich nicht auf eine unterbrochene Satellitenverbindung verlassen kann, um seine kritischen Systeme an Bord zu betreiben. Wenn ein zentrales System ausfällt, kann sich dies auf mehrere, andere Schiffe auswirken. Eine hochzuverlässige Edge-Infrastruktur kann hingegen das Risiko und die Auswirkungen von Ausfallzeiten verringern.

4. Lokale Datenverarbeitung an entfernten Standorten

Selbst wenn Performance, Latenzzeit und Zuverlässigkeit keine wichtigen Design-Aspekte darstellen, kann eine Edge-Infrastruktur mit Blick auf die Compliance, beziehungsweise den Ort der Datenerfassung dennoch notwendig sein. Yasser Alsaied, Vice President of Internet of Things bei AWS, erklärt: "Edge-Infrastruktur ist wichtig für die lokale Datenverarbeitung und die Anforderungen an die Datenresidenz. Das kommt beispielsweise Unternehmen in stark regulierten Branchen zugute, die große Datenmenge lokal verarbeiten müssen."

Eine grundlegende Frage, die DevOps-Teams diesbezüglich beantworten können sollten: Wo werden die Daten gesammelt und konsumiert? Die Compliance-Abteilung sollte darüber hinaus Richtlinien zu Datenbeschränkungen aufstellen und sich mit den jeweiligen Leitern der Fachbereiche über physikalische und geografische Limitationen austauschen.

5. Bandbreitenkosten bei riesigen Datensätzen minimieren

Smart Buildings mit Videoüberwachungs-, Gebäudemanagement- und Energie-Tracking-Systemen erfassen sekündlich enorme Datenmengen. Diese vor Ort zu verarbeiten, kann wesentlich günstiger sein, als sie in einer Cloud zu zentralisieren.

AB Periasamy, CEO und Mitbegründer beim Softwareanbieter MinIO, empfiehlt: "Mit den Daten, die am Netzwerkrand entstehen, ergeben sich besondere Herausforderungen für die Anwendungs- und Infrastrukturarchitekturen. Behandeln Sie die Bandbreite als den größten Kostenfaktor in Ihrem Modell und bedenken Sie, dass CAPEX und OPEX im Fall von Edge Computing anders funktionieren." (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.