Hardware scheint für Nvidia im B2B-Geschäft nur noch die halbe Miete zu sein. In ihrem eigenen Selbstverständnis sehen sich die Kalifornier als Unternehmen, das zwar keine Applikationen baut, aber das Enabling Technology liefert, damit andere wie etwa Shutterstock auf dieser Plattform eigene Services aufbauen können.
So hatte Nvidia auf der US-amerikanischen Grafikmesse Siggraph zwar auch neue Hardware im Gepäck, aber der Fokus der Neuankündigungen lag auf KI-Tools und Erweiterungen für die eigene Metaverse-Plattform Omniverse.
Die KI-Tools
In Sachen KI-Tools kündigte Nvidia eine Partnerschaft mit Hugging Face an, die es Entwicklern erleichtern soll, große Sprachmodelle (LLMs) und KI-Anwendungen zu erstellen. Mit Hilfe der Hugging Face-Plattform können Entwickler mit Open-Source-Ressourcen KI-Modelle erstellen, trainieren und einsetzen.
Im Rahmen der Zusammenarbeit will Hugging Face einen neuen Service anbieten - Training Cluster as a Service. Er soll es einfacher machen, neue und maßgeschneiderte generative KI-Modelle für Unternehmen zu erstellen. Dabei erhalten Entwickler innerhalb der Hugging-Face-Plattform Zugang zu NVIDIA DGX Cloud AI Supercomputing.
Nvidia AI Workbench
Damit Entwickler nicht nur auf eine Plattform - etwa die Nvidia DGX Cloud - beschränkt sind, hat das Unternehmen mit Nvidia AI Workspace einen plattformübergreifenden Workspace kreiert. Er soll es Entwicklern ermöglichen, vortrainierte generative KI-Modelle schnell auf einem PC oder einer Workstation zu erstellen, zu testen und anzupassen. Ziel ist es, dass sie später auf praktisch jedes Rechenzentrum, jede öffentliche Cloud oder die NVIDIA DGX Cloud skalieren können.
KI everywhere
Zudem macht AI Workbench laut Nvidia den Einstieg in ein KI-Projekt für Unternehmen einfacher. Über eine vereinfachte Schnittstelle, die auf einem lokalen System ausgeführt wird, können Entwickler, wie es heißt, Modelle aus beliebten Repositories wie Hugging Face, GitHub und NVIDIA NGC mit benutzerdefinierten Daten anpassen, die dann über mehrere Plattformen hinweg gemeinsam genutzt werden können.
Nvidia AI Enterprise 4.0
Die hauseigene End-to-end-Plattform zum Aufbau von Produktions- KI, Nvidia AI Enterprise, ist nun in der Version 4.0 erhältlich. Wesentliche Neuerung dabei ist die Integration von Video und NeMO, Nvidias Software-Tool rund um generative KI. Als vortrainierte Modelle können etwa Falcon LLM, Llama-2, MPT und NeMO GPT verwendet werden.
Upgrade für Omniverse
Für Omniverse kündigte Nvidia-CEO Jensen Huang im Rahmen der Siggraph ein umfangreiches Upgrade an. Es umfasst neue Konnektoren sowie Verbesserungen im Zusammenspiel mit OpenUSD (auch bekannt als Universal Scene Description) und bei der Unterstützung generativer KI.
Zur besseren Einbindung von OpenUSD in die Omniverse Cloud bringt Nvidia die vier neuen APIs RunUSD, ChatUSD, DeepSearch und USD-GDN Publisher (GDN = Graphics Delivery Network). Zudem planen Adobe und Nvidia, Adobe Firefly - Adobes Familie generativer KI-Modelle - als APIs in Omniverse verfügbar zu machen.
Aktualisierte Omniverse-Apps
Zu den aktualisierten Omniverse-Anwendungen gehört der Omniverse USD Composer, mit dem 3D-Anwender groß angelegte, OpenUSD-basierte Szenen zusammenstellen können. Omniverse Audio2Face - eine generative KI-API, die realistische Gesichtsanimationen und Gesten nur aus einer Audiodatei erstellt - bietet jetzt eine mehrsprachige Unterstützung und ein neues weibliches Basismodell.
Das Update bringt zudem neue Rendering-Optimierungen. So wurde etwa die DLSS-3-Technologie vollständig in den Omniverse RTX Renderer integriert. Darüber hinaus ermöglicht ein neuer AI-Denoiser die 4K-Darstellung massiver Industrieszenen in Echtzeit.
Omniverse-Funktionen on demand
Die neue Omniverse Kit Extension Registry, ein zentrales Repository für den Zugriff und die Verwaltung von Omniverse-Erweiterungen, ermöglicht es Entwicklern, Funktionen in ihren Anwendungen einfach ein- und auszuschalten. Diese soll die Erstellung benutzerdefinierter Anwendungen aus den über 500 von Nvidia bereitgestellten Omniverse-Kernerweiterungen erleichtern.
Omniverse im Automotive-Umfeld
Hinter all den Neuerungen steckt der Gedanke, Unternehmen mit Omniverse und OpenUSD Tools in die Hand zu geben, um physikalisch genaue Digital Twins von Fabriken zu erstellen, Echtzeit oder das Training und die Validierung autonomer Fahrzeuge im virtuellen Omniverse zu ermöglichen.
Damit scheint Nvidia durchaus den Nerv der Autoindustrie zu treffen. So hat etwa Volvo seinen digitalen Zwilling auf OpenUSD-Basis umgestellt und nutzt Omniverse, um immersive Visualisierungen zu erstellen, die die Kunden bei ihren Online-Kaufentscheidungen unterstützen.
Denza, ein Joint Venture zwischen BYD und Mercedes-Benz für Elektrofahrzeuge der Luxusklasse, hat gemeinsam mit dem britischen Marketing- und Kommunikationskonzern WPP eine neue Generation eines Auto-Konfigurators entwickelt. Mit Hilfe von Omniverse erstellte WPP einen physikalisch genauen, digitalen Zwilling des Denza-N7-Modells in Echtzeit.
Digital Twins in Echtzeit
Hierzu wurden die originalen Konstruktionsdaten aus den computergestützten Konstruktions-Tools des Fahrzeugherstellers in OpenUSD überführt, um virtuelle Welten aufzubauen. Durch die Implementierung einer vereinheitlichten Asset-Pipeline konnten so proprietäre Datensilos aufgelöst und der Zugang zu den Daten verbessert werden.
Auf diese Weise ist es WPP möglich, einen digitalen Zwilling des Fahrzeugs zu erstellen, der alle möglichen Modell- und Farbvarianten in einem einzigen Asset enthält. Zudem müssen Bilder vorberechnet werden. Herkömmlichen Auto-Konfiguratoren erfordern dagegen Hunderttausende an vorgerenderten Bildern, um alle möglichen Optionen und Varianten darzustellen.
Parallel können die Creative Artists bei WPP vollständig interaktive, virtuelle 3D-Sets erstellen. Diese können mit einem Scan einer realen Umgebung beginnen, WPP verwendet hierzu einen Roboterhund, oder es werden generative KI-Tools von Anbietern wie Shutterstock benutzt, um sofort 360-Grad-HDR-Hintergründe zu generieren.
KI-Visualisierung bei Shutterstock
Shutterstock nutzt hierzu Nvidia Picasso, um mit Hilfe von generativer KI entsprechende 3D-Hintergründe zu erstellen. Dabei verwendet Shutterstock nach eigenen Angaben KI-Modelle mit vollständig lizenzierten Daten, so dass keine Copyright-Probleme zu befürchten seien.
Die Bedingung erfolgt dabei über Text- oder Bild-Prompt. Aus diesen Vorgaben generiert die KI individuelle 360-Grad-Umgebungen mit 8K-Auflösung und High Dynamic Range Imaging (HDRi).
Neue Hardware
Um diese KI-Jobs und Rendering-Aufgaben möglichst schnell berechnen zu können, hat Nvidia eine neue GPU-Generation auf Ada-Basis vorgestellt. Für den Einsatz in Workstations sind die RX5000-, RTX4500- sowie die RTX4000-GPUs konzipiert.
Im Vergleich zur Vorgängerversion soll die KI- und Rendering-Leistung etwa doppelt so hoch sein. Zudem könnten die neuen GPUs 8K60-Videos in Echtzeit kodieren und dekodieren.
Für den Einsatz in Rechenzentren in Verbindung mit den OVX-Servern ist die neue Nvidia L40S Ada GPU konzipiert. Für sie gibt Nvidia ein bis viermal höhere Geschwindigkeit für KI- und Grafik-intensive Workloads im Vergleich zur A100-GPU an.