Grafikprozessoren (GPUs) sind für das KI-Modelltraining unverzichtbar - und entsprechend gefragt. Das hat dazu geführt dass der Sektor der alternativen Cloud-Plattformen - auch bekannt als Microclouds - einen erheblichen Aufschwung erfährt. An der Spitze dieser "Bewegung" stehen Unternehmen wie Lambda Labs, Voltage Park, Together AI oder auch CoreWeave (das ursprünglich im Bereich Cryptomining tätig war).
Weil es hohe Kosten und technische Anforderungen nach sich zieht, die für KI erforderliche Hardware vor Ort zu installieren, zu betreiben und zu warten und die Hyperscaler für Compute-Dienstleistungen keine Rabatte anbieten, stellen Microclouds für diverse Unternehmen eine kostengünstigere Lösung dar.
Beste Microcloud-Perspektiven?
Trotz der Dynamik im Microcloud-Sektor ist seine Zukunft jedoch eher ungewiss: Die Rentabilität des Wachstums der Anbieter hängt im Wesentlichen davon ab, dass eine konstante Versorgung mit GPUs in großen Mengen und zu wettbewerbsfähigen Preisen sichergestellt ist. Da die großen, etablierten Cloud-Anbieter vor allem in maßgeschneiderte Hardware für KI-Processing investieren, könnte der Wettbewerbsdruck zunehmen und in niedrigeren Preisen resultieren, was die großen Cloud-Anbieter wettbewerbsfähig halten würde.
Darüber hinaus sind GPUs zwar aufgrund ihrer Geschwindigkeit und ihrer Parallel-Processing-Fähigkeiten für Generative-AI-Tasks aktuell das Maß der Dinge - was aber im Umkehrschluss nicht bedeutet, dass alle KI-Workloads unbedingt Grafikprozessoren erfordern. Im Gegenteil: Sie sind für die meisten generativen KI-Workloads überflüssig und heute oft eher eine Art Statussymbol.
Die kurzfristigen Aussichten für Microcloud-Anbieter sind jedoch freundlich. Analysten gehen davon aus, dass der Trendmarkt die Nachfrage nach GenAI weiter befeuern wird. Das könnte dazu beitragen, dass weitere GPU-zentrierte KI-Cloud-Unternehmen entstehen. Über kurz oder lang wird sich jedoch auch dieses Marktumfeld konsolidieren - ganz ähnlich wie es im Bereich Cloud Computing zwischen 2012 und 2016 der Fall war. (fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.