Die diesjährige KubeCon / CloudNativeCon in Chicago im US-Bundesstaat Illinois kam einem Schaulaufen der Generative-AI (GenAI)-Anwender gleich. Die meisten Unternehmen, die sich auf dem Event präsentierten, setzen nach eigener Aussage bereits Cloud-native Plattformen ein, um GenAI-Anwendungen und große Sprachmodelle (LLMs) zu supporten.
Der allgemeine Tenor der Veranstaltung war dabei aber leider "Wir haben das auch" - solide Erklärungen, welche strategischen Vorteile dieser Ansatz mit sich bringt, blieben dabei größtenteils außen vor. Ein Hauch von Verzweiflung ist vor allem bei den Unternehmen zu spüren, die sich anfangs der Cloud verwehrt haben und in der Folge massiv aufholen mussten. Das soll sich möglichst nicht wiederholen.
Neues aus der Cloud-Native-Welt
Zunächst einmal sind Cloud-Native-Architekturen für Cloud Computing unerlässlich. Allerdings nicht, weil sie schnellen Mehrwert realisieren. Sie stellen vielmehr einen Weg dar, Anwendungen zu entwickeln und bereitzustellen, die auf Cloud-Plattformen optimal laufen. Dazu kommen Container zum Einsatz die orchestriert werden wollen - zudem steht eine Vielzahl von Funktionen zur Verfügung, die aus Standard- und Nicht-Standard-Komponenten bestehen.
Damit Plattformen dieser Art GenAI-Systeme supporten können, müssen die Anwender besondere Herausforderungen meistern: Im Gegensatz zum traditionellen KI-Modelltraining, bei dem kleinere GPUs für die Inferenz ausreichen können, erfordern LLMs in allen Phasen (auch während der Inferenz), leistungsstarke GPUs.
Die Nachfrage nach Grafikprozessoren dürfte in Zukunft explodieren und weitere Herausforderungen in Bezug auf Verfügbarkeit und Umweltverträglichkeit aufwerfen. Aus Nachhaltigkeitsperspektive stellt das keinen Gewinn dar - aber vielleicht muss man das akzeptieren, damit generative KI funktioniert. Dazu kommt die "ewige" Kehrseite der KI-Systeme: Sie erfordern weit mehr Ressourcen als traditionelle Systeme.
Cloud-native Architekturen und Entwicklungsansätze könnten dieses Problem künftig abmildern. So ist etwa für Kubernetes die effiziente Nutzung von GPUs eine Priorität geworden. Sowohl Intel als auch Nvidia haben für Kubernetes 1.26 Support für die dynamische Ressourcenzuweisung angekündigt. Damit lassen sich Cloud-Infrastrukturressourcen gemeinsam nutzen, was die Menge der benötigten Prozessor-Ressourcen voraussichtlich reduzieren kann.
Rettungsanker Open Source?
Unternehmen sollten auf dem Weg zur Wertschöpfung mit generativer KI auch quelloffene Cloud-Native-Lösungen in Betracht ziehen. Diese bieten im Vergleich zu bestimmten kommerziellen Angeboten eine ganze Reihe von Kosten- aber auch Risikokompromissen, die Unternehmen in Betracht ziehen sollten. Im Unternehmensumfeld gibt es in Sachen Open Source oft nur Pro oder Contra. Beide Seiten haben für ihre Haltung in der Regel gute Gründe - meiner Meinung nach liegt der Schlüssel zum Erfolg jedoch in einem Kompromiss aus beiden Welten: Sie sollten Ihre GenAI-Journey mit einem offenen Geist antreten und alle Technologien als potenzielle Lösungen betrachten.
Die Entscheidungen, die Sie diesbezüglich heute treffen, werden vermutlich ausschlaggebend für die Produktivität und den Mehrwert sein, die Ihr Unternehmen in den nächsten fünf Jahren realisiert. Höchstwahrscheinlich erwartet uns eine ähnliche Entwicklung wie zu den Anfängen des Cloud Computing. Damals haben sich diverse Annahmen als nicht korrekt erwiesen und zu einer beträchtlichen Diskrepanz zwischen Erwartungshaltung und ROI-Realität geführt. Manche Unternehmen werden noch Jahre mit den damaligen Fehlentscheidungen zu kämpfen haben. Stellen Sie sicher, dass sich das in Bezug auf Cloud-Native und Generative AI nicht wiederholt. (fm)