Hermann Hesse soll gesagt haben: "Es kommt alles wieder, was nicht zu Ende gelitten ist." Zuweilen scheint dieser Ausspruch auch für die IT-Welt zu gelten - könnte man angesichts einer aktuellen Untersuchung von Grand View Research, die dem Edge-Computing-Markt bis 2030 ein jährliches Marktwachstum von 37,9 Prozent prognostiziert, zumindest meinen. Wie ein Pendel scheint der Trend zwischen Zentralität und Dezentralität hin- und herzuschwingen. Erst Mainframe, dann Cloud - und jetzt Edge Computing?
Dass diese Lesart am Ziel vorbeischießt, stellt die COMPUTERWOCHE-Expertenrunde zum Thema "Edge Computing" gleich zu Beginn fest. Tatsächlich heben die Diskutanten hervor, dass es eine "Edge vs. Cloud"-Debatte nicht gibt. Im Gegenteil: Die Kombination beider Ansätze wird der Regelfall. Von einander ersetzenden Trends lässt sich also keineswegs sprechen.
Was genau jener "Edge" ist, ist hingegen gar nicht so klar. Denn das Thema ist facettenreich. "Was wir machen, wurde zeitweise mal 'Fog Computing' genannt", erklärt Alexander Roth, Director Marketing EMEA bei Fastly scherzhaft. "Was Edge Computing ist, da gibt es im Markt noch Definitionsbedarf."
Informationen zu den Partner-Paketen der Studie 'Edge Computing 2023'
KI als Edge-Treiber
Es herrscht jedoch Einigkeit darüber, dass der Einsatz von Edge Computing derzeit primär in einzelnen und exponierten Anwendungsfällen stattfindet. Durchgehende und stringente Strategien sind die Ausnahme, da viele Unternehmen noch zu sehr mit ihren Cloud-Strategien beschäftigt sind. Das liege zum Teil auch daran, dass Unternehmen häufig ausgehend von der Technologie passende Use Cases suchten, statt andersherum, wirft Marcus Rolfes, Practice Lead Network & Edge Germany von Kyndryl, in die Runde und fügt hinzu: "Das sollte man umdrehen, also ausgehend vom konkreten Use Case dazu passende Technologien finden."
Besonders KI-gestützte Anwendungsszenarien sind dabei klare Treiber für die Einführung von Edge Computing, wie Peter Schill, System Engineering Manager von Fortinet, kommentiert: "Zugespitzt formuliert hätten wir die Diskussion um Edge Computing erst in ein paar Jahren, wenn es keine Anwendungsfälle gäbe, die künstliche Intelligenzen erforderlich machen."
Denn die KIs werden zunächst mit großen Datenmengen aus der Cloud trainiert, müssen dann aber lokal schnelle und richtige Entscheidungen treffen können. Je nach Einsatzgebiet sind Latenzen, die durch den Austausch mit einer zentralen Cloud entstehen können, ist das nicht akzeptabel - beispielsweise im Bereich des autonomen Fahrens. Hier müssen einzelne Devices innerhalb von Millisekunden die richtige Entscheidung treffen, auch wenn die Internetverbindung instabil oder überlastet ist.
- Tobias Graner, Akamai
"Es ist wichtig, eine klare Sichtweise einzunehmen: Es ist nicht immer erforderlich, sämtliche Daten zurückzusenden, um dann Entscheidungen zu treffen. Vielmehr sollten wir uns die Frage stellen, welche Voraussetzungen geschaffen werden müssen. Das Ziel sollte sein, unnötigen Datenverkehr zu vermeiden und durch einen bewussten Umgang mit Daten eine optimale Balance zwischen Cloud und Edge zu finden. Das bedeutet auch, sich davon zu lösen, immer sämtliche Informationen zum Ursprung zurückzusenden. Das belastet nicht nur das Netzwerk, sondern macht es auch anfälliger für potenzielle Angriffe." - Tobias Oberrauch, Eviden
"Der Fokus sollte stets auf konkreten Use Cases liegen. Das bedeutet: klare Anwendungsszenarien identifizieren, in denen der Einsatz von Edge Computing einen realen Mehrwert bietet und zu konkreten Geschäftszielen beiträgt." - Alexander Roth, Fastly
“Besonders im Zusammenhang mit Künstlichen Intelligenzen entstehen enorme Datenmengen, die zur Verarbeitung eigentlich nicht mehr durch das Netz übertragen werden sollten. Von IT-Providern wird heutzutage erwartet, dass sie ressourcenschonend agieren. Daher wäre es zum Beispiel unerlässlich, zu prüfen, ob eine KI lokal ausgeführt werden kann und nur das Training des Modells zentral in der Cloud erfolgen muss, um unnötigen Datenverkehr zu vermeiden." - Peter Schill, Fortinet
“Aktuell sehen wir im Bereich Edge Computing viele individuelle Use Cases, aber nur wenig umfassende Strategien, um das Konzept in der Fläche auszurollen. Es gibt jedoch immer mehr Projekte, insbesondere für Anwendungsfälle, bei denen die Datenmenge und Verarbeitungslogik ohne KI nicht bewältigt werden könnten. Zugespitzt formuliert hätten wir die Diskussion um Edge Computing erst in ein paar Jahren, wenn es keine Anwendungsfälle gäbe, die künstliche Intelligenzen erforderlich machen." - Markus Keppeler, IBM
“Resilienz und Business Continuity spielen eine zentrale Rolle im Kontext Edge Computing. Wenn die einzelnen Geräte am Standort nicht mehr auf ein zentrales Management angewiesen sind, sondern sich nahtlos mit anderen Systemen verbinden und autonom reagieren können, sorgt das für eine wesentlich robustere und widerstandsfähigere Infrastruktur, die besser auf unerwartete Ereignisse reagieren kann. Ein solches dezentrales Modell fördert die Flexibilität und ermöglicht es, Ausfälle oder Störungen effektiv zu bewältigen, indem die Geräte miteinander kommunizieren und kooperieren können.” - Erwin Breneis, Juniper Networks
“Für den Erfolg einer Cloud- oder Edge-Lösung ist die richtige Konnektivität von entscheidender Bedeutung. Hierbei spielt KI eine wichtige Rolle, um die Konnektivität und damit auch die Bereitstellung von Services zu gewährleisten. Wenn beispielsweise die Rahmenparameter nicht mehr erfüllt sind, kann KI helfen, solche Probleme zu erkennen und zu beheben. Dies betrifft weniger die Datenverarbeitung selbst, sondern vielmehr die Infrastruktur und die nahtlose Bereitstellung der Dienste. Die Integration von KI ist ein integraler Bestandteil einer umfassenden Lösung.” - Marcus Rolfes, Kyndryl
“Aus IT-Sicht neigen wir oft dazu, ausgehend von bestimmten Technologien den passenden Anwendungsfall zu suchen. Doch diesen Ansatz sollten wir umzudrehen: Zuerst den konkreten Use Case definieren und erst dann die dazu individuell passende Technologie auswählen. Damit lassen sich viele Startschwierigkeiten für Unternehmen beseitigen. Bei unseren Kunden haben wir damit sehr gute Erfahrungen gemacht." - Philip Horn, Verizon
"Interessanterweise ist Deutschland in Bezug auf die Cloud-Adoption im Vergleich zu anderen Teilen der Welt noch recht zurückhaltend. Dies mag aufgrund von Datenschutzbedenken und anderen Faktoren verständlich sein. Allerdings hat sich mit dem Aufkommen von Edge Computing die Möglichkeit eröffnet, ähnliche Methoden wie in der Cloud auch an den jeweiligen Standort zu bringen. In gewisser Weise kann Edge Computing als eine Art Sandbox fungieren, die es Unternehmen ermöglicht, Cloud-ähnliche Lösungen lokal zu testen und anzupassen. Damit wird der Weg geebnet, die Vorteile der Cloud näher an den eigenen Standort zu bringen."
Unnötigen Datenverkehr vermeiden
Ein zentraler Aspekt ist daher, immer größer werdende Datenströme beherrschbar zu machen und gleichzeitig eine akzeptable Response Time zu gewährleisten - was für Unternehmen jedoch auch eine Festlegung bedeutet, was "akzeptabel" im Einzelfall heißt. "Unternehmen müssen je nach Use Case entscheiden, welche Daten wirklich in Echtzeit verarbeitet werden müssen und wo sie sich mehr Zeit lassen können", erklärt Erwin Breneis, Sales and Solution Specialist von Juniper Networks. Es gehe darum, nur essentielle Daten zu liefern.
Auch Tobias Graner, Solutions Engineer von Akamai, betont, dass nicht immer alle Daten in ihrer Gesamtheit zurückgeschickt werden müssen, um entscheidungsfähig zu sein. "Das Ziel sollte sein, unnötigen Datenverkehr zu vermeiden und eine optimale Balance zwischen Cloud und Edge zu finden." Nicht alles müsste am Ursprungsort verarbeitet werden, da dies vor allem das Gesamtnetz überlaste und angreifbar mache.
Vor diesem Hintergrund bringen die Experten einen weiteren Aspekt ein: den Datenschutz. Denn gerade im Bereich der öffentlichen Sicherheit sprechen oft datenschutzrechtliche Bedenken dagegen, beispielsweise Bildmaterial von Sicherheitskameras einfach in die Cloud zu übertragen. Besonders wenn eine intelligente Gesichts- oder Absichtserkennung eingesetzt wird, ließe sich das häufig nur im Edge datenschutzkonform umsetzen, erklärt Marcus Rolfes: "Wenn wir in dem Zusammenhang über KI sprechen, sprechen wir auch darüber, diese so nah wie möglich an den Datenursprung zu bringen."
Studie "Edge Computing 2023": Sie können sich noch beteiligen! |
Zum Thema Edge Computing führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Sie Partner werden, helfen Ihnen Regina Hermann (regina.hermann@foundryco.com, Telefon: 089 36086 161) und Manuela Rädler (manuela.raedler@foundryco.com, Telefon: 089 36086 271) gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). |
Das erfordert jedoch die entsprechende Infrastruktur und das zugehörige Fachpersonal, das nicht zuletzt aufgrund des Fachkräftemangels zunehmend schwer zu finden ist. Unternehmen greifen daher in immer mehr Bereichen auf Service-Provider zurück, die sich als Reaktion darauf immer breiter aufstellen müssen.
Dabei sehen sich viele Unternehmen etwas gefangen zwischen dem Wunsch, auf der einen Seite den "Dienstleister für alles" zu haben, und auf der anderen Seite einen Lock-in-Effekt zu vermeiden. Tobias Graner sieht die Dienstleister in der Pflicht, Unternehmen in diesen Fragen zu unterstützen: "Das ist ein Findungsprozess, der sich nur im Kundengespräch bestreiten lässt: Wieviel Flexibilität benötigt der Kunde, wieviel Lock-in will er zulassen?"
Die Bedeutung von Standards
Die Frage nach Flexibilität stellt für Philip Horn, Head of Digital Transformation and Innovation EMEA von Verizon, auch die Technologiefrage: "Nur wenn ich eine offene Plattform mit offenen Standards habe, kann ich den Vendor Lock-in ausschließen", betont Horn und ergänzt, dass sich mit entsprechenden Standards Teile der eigenen Cloud direkt an den Standort bringen ließen.
Markus Keppeler, Senior IT Specialist von IBM sieht ebenfalls die Wichtigkeit offener Standards und hebt hervor, dass Nutzer auch in der Edge Technologien nutzen wollen, die sie aus der Cloud kennen. Im Optimalfall wollten Unternehmen Anwendungen einmal als Container-Lösung entwickeln und diese anschließend überall nutzen können. "Das können wir mit Edge-Technologien bereits jetzt ermöglichen", erklärt Keppeler.
Dass sich gänzlich einheitliche Standards durchsetzen, hält die Expertenrunde jedoch für wenig realistisch. "Es gibt viele gute Ansätze, aber im Markt ist man sich nicht mal einig, wo genau der Edge eigentlich ist", kommentiert Tobias Oberrauch, Senior Sales & Presales - Big Data & AI Central Europe von Eviden. "Wichtig ist, dass die Transparenz bei Standards sichergestellt ist, damit sich kein Lock-in-Effekt einstellt."
Es gibt also noch einige offene Fragen und Herausforderungen. Dennoch ist klar, dass Edge Computing eine zunehmend wichtige Rolle in der zukünftigen digitalen Landschaft spielen wird - wenn die entsprechenden Anwendungsszenarien gegeben sind.
Informationen zu den Partner-Paketen der Studie 'Edge Computing 2023'