Intel, AMD Qualcomm etc. - die Liste der Verfolger, die KI-Chip-Platzhirsch Nvidia im Nacken sitzen, ist lang. Zudem sieht sich die Company mit hohen Erwartungen seitens der Investoren konfrontiert, seit die Aktie die 800-Dollar-Marke durchbrach.
Wie der Platzhirsch sein KI-Revier verteidigen will, enthüllte die mittlerweile über zwei Billionen Dollar schwere Company jetzt auf der hauseigenen KI-Konferenz GTC24. Neben neuer Hardware setzt das Unternehmen auf ein komplexes KI-Ökosystem aus Software, Partnerschaften und Neuerungen wie humanoide Roboter oder Microservices. Und allein mit Software dürfte die Company gut verdienen, wenn man bedenkt, dass beispielsweise die Nutzung von Nvidia AI Enterprise 4.500 Dollar pro Jahr, beziehungsweise ein Dollar pro Stunde kostet - pro GPU wohlgemerkt.
Zu den wichtigsten Neuerungen auf der GTC24 zählen:
Die neue GPU-Architektur Blackwell
Neue Computer und Switches
Microservices
Neue Robotertechnik
Ergänzungen rund um Omniverse und Digital Twins
Partnerschaften in Sachen autonomes Fahren rund um die Nvidia Avatar Cloud Engine und Nvidia DRIVE.
Die neue Blackwell-GPU
Als Nachfolger für die vor zwei Jahren vorgestellte Hopper-Architektur präsentierte Nvidia jetzt Blackwell. Der Namen soll an den US-amerikanischen Mathematiker David Harold Blackwell erinnern, der sich auf Statistik, Spieltheorie und Informationstheorie spezialisiert hatte. Er war der erste Afroamerikaner, der in die National Academy of Sciences aufgenommen wurde.
Die neue GPU soll in Verbindung mit anderen Technologien wie einer Transformer Engine der zweiten Generation, einer neuen Version von Nvidia NVLink sowie einer RAS Engine das KI-Training und Echtzeit-LLM-Inference für Modelle mit bis zu 10 Billionen Parametern ermöglichen. Der Nvidia GB200 Grace Blackwell Superchip verbindet zwei Nvidia B200 TensorCore GPUs mit der Nvidia Grace CPU über einen 900 GB/s Ultra-Low-Power NVLink als Chip-zu-Chip-Verbindung.
Als Server-Board ist der GB200 als HGX B200 erhältlich. Auf dem Board sind acht B200-GPUs, die via NVLink miteinander verbunden sind.
Neue Blackwell-Hardware
Untereinander können GB200-Systeme mit Hilfe der neuen SwitchPlattformen Nvidia Quantum-X800 InfiniBand und Spectrum-X800 Ethernet mit Geschwindigkeiten von bis zu 800 GB/s verbunden werden. Zudem ist der GB200-Chip eine Schlüsselkomponente des Nvidia GB200 NVL72, einem flüssigkeitsgekühlten Multinode Racksystem für rechenintensive Workloads.
Das System besteht aus 36 Grace Blackwell Superchips, die 72 Blackwell GPUs und 36 Grace CPUs umfassen, die über NVLink der fünften Generation miteinander verbunden sind. Laut Nvidia wartet der GB200 NVL72 mit einer bis 30-fach höheren Leistung bei LLM-Inference-Arbeitslasten auf als ein vergleichbares System mit Nvidia H100 Tensor Core GPUs.
Neuer KI-Supercomputer
Dabei agiert die Plattform als eine einzige GPU mit 1,4 Exaflops KI-Leistung und 30 TB schnellem Speicher. Zudem ist sie ein Baustein für den KI-Supercomputer DGX SuperPOD. Der neue DGX SuperPOD bietet laut Nvidia 11,5 Exaflops an KI-Supercomputing-Leistung mit FP4-Präzision und 240 Terabyte schnellem Speicher. In einem SuperPod sind mindestens acht GB200-NVL72-Systeme verbaut, wobei weitere Systeme hinzugefügt werden können.
Projekt Ceiba
Unter dem Projektnamen Ceiba wollen Nvidia und AWS einen der schnellsten KI-Supercomputer der Welt zu bauen. Der Supercomputer wird exklusiv auf AWS gehostet und steht für Nvidias eigene Forschung und Entwicklung zur Verfügung.
Der Supercomputer soll mit 20.736 B200-GPUs gebaut werden. Nvidia will Ceiba dazu nutzen, um KI für LLMs, Grafik (Bild/Video/3D-Erzeugung) und Simulation, digitale Biologie, Robotik, selbstfahrende Autos, Nvidia-Earth-2-Klimavorhersage und vieles mehr zu entwickeln.
Microservices
Mit NIM hat Nvidia ein eigenes Angebot an GenAI-Microservices für Unternehmenskunden vorgestellt. Diese sollen damit schneller eigene KI-Anwendungen entwickeln können. Dazu bieten die NIM-Microservices vorgefertigte Container, die unter anderem Nvidias Inference-Software wie den Triton Inference Server oder Tensor RT beinhalten. Die Microservices sind im Rahmen von Nvidia AI Enterprise 5.0 erhältlich.
Basierend auf der Nvidia-CUDA-Plattform, umfasst der Katalog Services für eine optimierte Inference auf mehr als zwei Dutzend KI-Modellen von Nvidia und Partner-Ökosystem. Unter Nvidia beschleunigte Software-Entwicklungskits, Bibliotheken und Tools können so als NVIDIA-CUDA-X-Microservices für Retrieval-Augmented Generation (RAG), Leitplanken, Data Processing, HPC und mehr genutzt werden. Zudem kündigte die Company über zwei Dutzend NIM- und CUDA-X-Microservices für das Gesundheitswesen an.
NIM und SAP
Im Rahmen der Partnerschaft mit Nvidia plant SAP KI-Anwendungen mit den mit neuen NIM-Microservices bereitzustellen. Ferner wird SAP den generativen KI-Foundry-Service von Nvidia zur Feinabstimmung von LLMs für domänenspezifische Szenarien nutzen, um so die LLMs zu optimieren.
Robotics
Mit dem Projekt GROOT kündigte Nvidia ein universelles Foundation Model für humanoide Roboter an. Im Rahmen dieser Initiative stellte das Unternehmen auch einen neuen Computer für humanoide Roboter vor - den Jetson Thor. Er basiert auf dem Nvidia Thor System-on-a-Chip (SoC) sowie der Nvidia Isaac-Robotik-Plattform.
Auf Basis von GR00T konzipierte Roboter sollen künftig natürliche Sprache verstehen und Bewegungen emulieren, indem sie menschliche Handlungen beobachten und so schnell Koordination, Geschicklichkeit und andere Fähigkeiten lernen, um sich in der realen Welt zurechtzufinden, sich anzupassen und mit ihr zu interagieren.
Die Technik hinter GROOT
Der für Thor verwendete SoC enthält einen Grafikprozessor der nächsten Generation auf Basis der Blackwell-Architektur mit einer Transformer-Engine, die 800 Teraflops an 8-Bit-Gleitkomma-KI-Leistung zur Ausführung multimodaler generativer KI-Modelle offeriert.
Zudem nutzt GROOT Nvidias Robotik-Plattform Isaac - eine Sammlung von vortrainierten KI-Modellen, Bibliotheken und Referenzhardware. Dazu zählen auch der neue Isaac Manipulator und der Isaac Perceptor. Der Manipulator offeriert modulare KI-Funktionen für Roboterarme, während der Schwerpunkt bei Perceptor auf Multikamera- und 3D-Surround-Vision-Funktionen liegt, mobile Roboter autonom einzusetzen.
Omniverse
Seine virtuelle Welt-Plattform Omniverse zur Entwicklung Digitaler Zwilling erweitert Nvidiaum fünf Cloud APIs:
- USD Render - erzeugt vollständige RTX-Renderings mit Raytracing von OpenUSD-Daten.
- USD Write - ermöglicht Benutzern die Änderung und Interaktion mit OpenUSD-Daten.
- USD Query - ermöglicht Szenenabfragen und interaktive Szenarien.
- USD Notify - verfolgt USD-Änderungen und liefert Updates.
- Omniverse Channel - verbindet Benutzer, Tools und Welten, um die Zusammenarbeit über Szenen hinweg.
Siemens und Omniverse
Siemens will die Omniverse Cloud APIs in seine Xcelerator Platform einbinden. Den Anfang macht Teamcenter X, eine Cloud-basierte Product-Lifecycle-Management-Software (PLM). Durch diese Verbindung sollen Anwender in die Lage versetzt werden, ihre digitalen Zwillinge durch physikalisch basiertes Rendering zu verfeinern.
Mit der Möglichkeit, generative KI-APIs oder Agenten zu nutzen, seien die Anwender in der Lage, 3D-Objekte oder Bildhintergründe mit hohem Dynamikbereich zu erzeugen, um so ihre Assets im Kontext zu betrachten. Wie das in der Praxis aussehen kann, zeigten Siemens und Nvidia am Beispiel des Schiffbauers HD Hyundai. Dieser nutzt die Software, um digitale Zwillinge von Flüssiggastankern zu visualisieren. Dabei können die Tanker aus bis über 7 Millionen Einzelteilen bestehen.
Data Center als Digital Twin
Um Rechenzentren schneller zu planen und zu bauen hat Nvidia gemeinsam mit Ansys, Cadence, Patch Manager, Schneider Electric, Vertiv und anderen ein Digital Blueprint für einen entsprechenden Digital Twin entworfen. Dazu baute Nvidia zunächst einen digitalen Zwilling mit Software-Tools, die über Omniverse verbunden sind. Dann vereinheitlichten und visualisierten die Ingenieure mehrere CAD-Datensätze mit voller physikalischer Genauigkeit und Fotorealismus in OpenUSD mit Hilfe der Cadence Reality Digital Twin Plattform, die APIs von Nvidia Omniverse nutzt.
Digital Twins bei der Automatisierung
Ein anderes Einsatzfeld für Digital Twins sieht man bei Nvidia im Training für Roboter. In Kombination mit Technologien wie Omniverse, Metropolis, Isaac and cuOpt hat man so eine Art KI-Fitnessstudio kreiert, in dem Roboter und KI-die Agenten trainieren und ihr Verhalten in komplexen industriellen Räumen untersucht werden kann. Metropolis, eine Plattform für Vision AI, erstellt dabei eine zentrale Karte der Arbeitsaktivitäten im gesamten Raum, indem sie die Daten von an der Decke montierten Multikameras auswertet.
KI im Auto
Unter Verwendung der Cloud-to-Edge-Technologie von Nvidia arbeiten Anbieter wie Cerence, Geely, Li Auto, MediaTek, NIO, SoundHound, Waabi und Wayve an intelligenten KI-Assistenten, einem Szenenverständnis und mehr. Mit DRIVE Thor hat Nvidia zudem eine fahrzeuginterne Computerplattform in petto, die für generative KI-Anwendungen entwickelt wurde.
DRIVE Thor basiert ebenfalls auf der Blackwell-Architektur und liefert eine Rechenleistung von 1.000 Teraflops. Waabi, ein Unternehmen, das Pionierarbeit auf dem Gebiet der künstlichen Intelligenz (KI) für das autonome Fahren leistet, will mit DRIVE Thor die erste generative KI-gestützte Lösung für das autonome Fahren von LKWs auf den Markt bringen. Andere Hersteller die Thor nutzen wollen, sind unter anderem BYD, Hyper, XPENG, Nuro, Plus oder WeRide.