4 Wege

Wie Generative AI den Cloud-Betrieb gefährdet

11.04.2023
Von 

David Linthicum ist ein US-amerikanischer Technologieexperte und Buchautor. Zu seinen Schwerpunktthemen gehören unter anderem Cloud Computing, SOA, Enterprise Application Integration und Enterprise Architecture.

Generative KI einzusetzen, eröffnet auch Cloud-Betreibern völlig neue Möglichkeiten. Dabei sollten jedoch die potenziellen Probleme und Gefahren nicht unter den Tisch fallen.
Generative AI könnte in der Cloudops-Welt für erhebliches Ungemach sorgen.
Generative AI könnte in der Cloudops-Welt für erhebliches Ungemach sorgen.
Foto: valdezrl - shutterstock.com

Generative künstliche Intelligenz gilt als bahnbrechende Technologie mit dem Potenzial, diverse Branchen nachhaltig zu verändern. Allerdings werden zunehmend Bedenken laut - insbesondere aus der Cloudops-Welt und von denjenigen, die langfristig mit dem Betrieb dieser Systeme betraut werden.

Denn gleichwohl Generative AI viele Vorteile verspricht, hat sie auch das Potenzial, Cloud Operations nachhaltigen Schaden zufügen. Diese Probleme sind aktuell noch theoretischer Natur, das dürfte sich jedoch bald ändern. Es ist also hilfreich, sich jetzt mit den (besorgniserregenden) Problemfeldern zu beschäftigen, die die Technologie aufwerfen kann. Etwa den folgenden vier.

Sicherheitsrisiken

Mit Hilfe von Generative-AI-Systemen lassen sich Fake-Daten erzeugen, die wiederum dazu verwendet werden können, um Cloud-Systeme zu überlisten, Angriffe zu initiieren und das Systemverhalten zu manipulieren. Sicherheitsverletzungen, Datenlecks und andere Risiken sind die Folge. Davon abgesehen können generative KI-Instanzen auch genutzt werden, um gefälschte Identitäten zu erstellen und so Sicherheitsmaßnahmen zu umgehen und Zugang zu sensiblen Daten zu erlangen.

Mächtige Werkzeuge können meist ebenso viel Schaden wie Nutzen anrichten - da bildet Generative KI keine Ausnahme. Ich rechne für die Zukunft mit einer rasanten Zunahme von Sicherheitsverletzungen, die auf Generative KI-Systeme zurückgehen. Bekämpfen lassen sich diese Angriffe mit neuen (und teureren) KI-gestützten Cloud-Security-Tools. Sie sollten deshalb sicherstellen, einen Nutzen beziehungsweise Mehrwert aus der Technologie zu ziehen - und, dass dieser nicht von den erhöhten Anforderungen an die Security zunichtegemacht wird.

Ressourcenüberlastung

Algorithmen für Generative-AI-Systeme sind potenziell ressourcenhungrig, was zu einer Überbeanspruchung der Cloud-Ressourcen führen kann. Das bringt diverse weitere Nachteile mit sich, beispielsweise:

  • verringerte Systemleistung,

  • geringere Systemverfügbarkeit,

  • höhere Kosten und

  • erhöhter CO2-Ausstoß.

Wenn generative KI-Algorithmen nicht entsprechend für Cloud-Computing-Umgebungen optimiert sind, können sie die Systeme erheblich belasten. Die daraus resultierenden Probleme zu beheben, obliegt dann den Cloudops-Mitarbeitern.

Kompatibilitätsprobleme

Zu Integrationsproblemen kommt es, wenn Generative KI-Systeme nicht mit existierenden Cloud-Systemen kompatibel sind. Das kann den Einsatz entsprechender Algorithmen verzögern und sich negativ auf Systemleistung und -effizienz auswirken.

Meiner Einschätzung nach wird sich das in Zukunft als eines der komplexesten Operations-Probleme erweisen, ist doch die Integration in der Regel ein entscheidender und heikler Punkt.

Unberechenbarkeit

Das teilweise unberechenbare Verhalten von Generative-AI-Algorithmen kann zu unerwarteten Outputs führen. Das zieht weitere Probleme mit unabsehbarem Umfang nach sich, beispielsweise Systemfehler oder eine verringerte Performanz. Zwar werden wir mit der Zeit lernen, das Verhalten generativer KI besser einzuschätzen, das dürfte jedoch ein schmerzhafter Prozess mit steiler Lernkurve sein.

Vermutlich erwägen aktuell nur die wenigsten Entwickler die potenziellen Nachteile der Technologie. Die Auswirkungen werden sich schon bald zeigen, im Guten wie im Schlechten. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.