Mit DGX Cloud hat Nvidia einen Cloud-basierten KI-Supercomputer-Service eingeführt, der sich in erster Linie an Enterprise-Anwender mit hohen Ansprüchen - und dickem Geldbeutel - richtet. Nvidias Offering beinhaltet dabei ein Komplettpaket aus Soft- und Hardware, um KI-Systeme in großem Maßstab zu entwickeln - zugänglich per Webbrowser. DGX Cloud kombiniert:
eine KI-Developer-Suite,
Workflow-Software,
eine High-Performance-Infrastruktur und
Rund-um-die-Uhr-Support.
"DGX Cloud befähigt Unternehmen dazu, moderne KI-Workloads wie Generative AI beziehungsweise Large Language Models (LLMs) zu trainieren", stellt Charlie Boyle, Vice President of DGX Platforms bei Nvidia, in Aussicht.
Train protein models to speed drug discovery, forecast financial trends and optimize portfolios, build recommender systems, intelligent #generativeAI chatbots, and AI factories with #NVIDIADGX. Learn more. https://t.co/vFa0N5hVYt
— NVIDIA AI Developer (@NVIDIAAIDev) July 26, 2023
Generativer Markt-Impact
Das Aufkommen von generativer KI treibt die Nachfrage nach KI-basierten Produkten und Services in neue Höhen. Unternehmen so gut wie aller Branchen bemühen sich darum, die erforderlichen Fähigkeiten und Infrastrukturen aufzubauen, um KI in ihre Produktentwicklungs- und Geschäftsprozesse zu integrieren.
An dieser Stelle könnte Nvidias DGX Cloud das richtige Angebot für Unternehmen sein, die möglichst schnell auf eine vollständige KI-Supercomputer-Umgebung zugreifen und sich dabei keine Gedanken über Kompatibilitäts-, Rechenzentrums-, oder Energieversorgungsprobleme machen wollen - vom erforderlichen Knowhow, das nötig ist, um Supercomputer-Cluster zu installieren und zu warten, ganz zu schweigen. "Die Kunden können sich auf Innovation statt auf Infrastruktur konzentrieren und sind innerhalb von Tagen statt Monaten einsatzbereit", verspricht Boyle.
Doch auch Unparteiische wissen die Vorzüge des Nvidia-Service zu schätzen. Etwa Vladislav Bilay, Cloud Solution Engineer bei Aquiva Labs: "DGX Cloud ermöglicht Forschern, Entwicklern und Datenwissenschaftlern, remote auf die Infrastruktur von Nvidia zuzugreifen. Das macht teure On-Premises-Hardware überflüssig. Zudem bekommen Sie eine nahtlose und skalierbare Umgebung, um KI-Modelle zu trainieren und bereitzustellen, um ihre Arbeitsabläufe auf flexible und bequeme Weise zu beschleunigen."
Einer der wichtigsten Vorteile ist nach Aussage von Bilay zudem die enge Integration mit gängigen KI-Frameworks und -Tools - etwa:
PyTorch und
Das ermögliche den Nutzern, ihre bevorzugten Bibliotheken und APIs einsetzen zu können. Der Softwareexperte fügt hinzu, dass DGX Cloud darüber hinaus auch Zugang zum umfassenden Software-Stack von Nvidia biete, der auf die KI-Entwicklung zugeschnittene Treiber, Bibliotheken und Frameworks umfasse.
DGX-Cloud-Komponenten, -Preise und -Konkurrenz
Nvidias DGX Cloud umfasst mehrere integrierte Komponenten. Die Benutzer greifen über einen Webbrowser mit der Software "Base Command Platform" auf das Angebot zu. "Das ist der zentrale Knotenpunkt von DGX Cloud, in dem die Nutzer ihre vollständigen KI-Entwicklungs-Workflows managen", erklärt Boyle. "Mit einer grafischen Benutzeroberfläche und integrierten Monitoring- und Reporting-Tools beseitigt sie die Komplexität der gemeinsamen Nutzung von Ressourcen für ein groß angelegtes KI-Training, indem sie dafür mehrere Instanzen nutzt - das sogenannte 'Multi-Node-Training'."
Unternehmen mieten mehrere DGX-Cloud-Instanzen und erhalten im Gegenzug für die Mietdauer dedizierten Vollzeitzugang. Die Instanzen werden automatisch in der "Base Command Platform"-Software angezeigt, so dass die Benutzer Aufträge einreichen und ausführen können. Jede Instanz umfasst dabei acht Nvidia H100 oder A100 80GB Tensor Core GPUs - bietet also insgesamt 640GB GPU-Speicher pro Knoten. In Sachen Infrastruktur kooperiert Nvidia mit Cloud-Service-Anbietern wie Oracle Cloud Infrastructure, Microsoft Azure und Google Cloud Platform.
Billig ist die Nutzung von Nvidia-DGX-Cloud-Instanzen allerdings nicht. Los geht es ab rund 37.000 Dollar pro Instanz und Monat - exklusive Gebühren für KI-Software und Datentransfers. Eine Instanz verursacht pro Jahr also wiederkehrende Kosten in Höhe von mindestens 444.000 Dollar.
Nvidia ist mit seiner DGX Cloud nicht exklusiv unterwegs. Zu den wichtigsten Konkurrenten gehören:
"Diese Plattformen bieten ähnliche Funktionen, wie beispielsweise skalierbare Rechenressourcen, Integration mit gängigen KI-Frameworks und Unterstützung für Deep Learning-Workflows", weiß Bilay.
Insbesondere bei Unternehmen mit strengen Datenschutz- oder Compliance-Anforderungen könne die Nutzung einer solchen Cloud-Plattform jedoch auch Bedenken hinsichtlich Datenschutz und -sicherheit aufwerfen, warnt Bilay: "Obwohl DGX Cloud Sicherheitsmaßnahmen implementiert, ist es für Benutzer wichtig, die Sicherheitsprotokolle der Plattform zu evaluieren, um sicherzustellen, dass sie ihre spezifischen Compliance-Anforderungen erfüllen."
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.