Ein neues Software-Framework von Nvidia, das auf Omniverse Cloud APIs (Application Programming Interfaces) basiert, soll es künftig ermöglichen, Digital Twins auf die Apple Vision Pro zu streamen. Hierzu müssen lediglich die Digitalen Zwillinge auf Basis von OpenUSD an das Nvidia Graphics Delivery Network (GDN) gesendet werden.
Rendering in der Cloud
Das Rendering findet dann im GDN statt. Das GDN ist laut Nvidia in über 130 Ländern verfügbar und nutzt die globale Cloud-to-Edge-Streaming-Infrastruktur des Herstellers. Durch die Verlagerung rechenintensiver Aufgaben auf das GDN können Anwender anspruchsvolle Rendering-Anwendungsfälle bewältigen, unabhängig von der Größe oder Komplexität des Datensatzes.
Digital Twin in allen Details
Welches Potenzial das Verfahren auf der Apple Vision Pro hat, zeigte Nvidia auf seiner KI-Konferenz GTC24. Dazu streamte das Unternehmen den interaktiven, physikalisch exakten Digital Twin eines Autos, in voller Detailtreue auf die hochauflösenden Displays der Apple Vision Pro.
Spatial Computing und Cloud
In einer Demo zeigt Nvidia einen Designer, der die Vision Pro trägt und eine vom CGI-Studio Katana auf der Omniverse-Plattform entwickelte Autokonfigurator-Anwendung verwendet. Der Designer schaltet zwischen verschiedenen Lackierungs- und Ausstattungsoptionen um und steigt sogar in das Fahrzeug ein. Dabei nutzt er die Möglichkeiten des Spatial Computing, indem er fotorealistische 3D-Umgebungen mit der realen Welt verschmilzt.
Der Cloud-basierte Ansatz ermöglicht es dabei, physikalisch basierte Renderings in Echtzeit nahtlos an die Apple Vision Pro zu streamen und so hochauflösende Bilder zu liefern, ohne die Details der großen, ingenieurgetreuen Datensätze zu beeinträchtigen.