AMD startet mit seinem neuen Instinct-Prozessor einen Direktangriff auf Nvidia. Der Instinct MI300X soll demnach die Arbeit mehrerer GPUs übernehmen und ist laut CEO Lisa Su "das komplexeste Ding, das wir je gebaut haben".
Der Chip besteht aus Zen-CPU-Kernen und AMDs CDNA 3-GPU-Architektur der nächsten Generation. Der MI300X weist dabei 146 Milliarden Transistoren auf und verfügt über bis zu 192 GB HBM3-Speicher mit hoher Bandbreite, der sowohl von der CPU als auch der GPU genutzt wird. Der Chip soll außerdem eine Speicherbandbreite von 5,2 TB/s in die Waagschale werfen - was im Vergleich zu einem H100-Chip von Nvidia einen Geschwindigkeitszuwachs von 60 Prozent bedeuten würde.
Such a super great day…. Excited to announce our expanded 4th Gen #EPYC processors and preview our new @AMDInstinct #MI300 AI accelerators. Huge thanks to our amazing partners @primitivetype, @AlexisBjorlin, @_NidhiC, @citsecurities, @soumithchintala, @ClementDelangue who… pic.twitter.com/euC0knmmYV
— Lisa Su (@LisaSu) June 14, 2023
AMD rüstet auf für die LLM-Zukunft
"Man braucht heute mehrere GPUs, um die neuesten Large Language Models auszuführen. Mit dem MI300X können Sie die Anzahl der GPUs reduzieren. Das wird in Zukunft noch wichtiger werden, weil die Modelle weiterwachsen." Laut AMD ist der MI300X achtmal leistungsfähiger und fünfmal energieeffizienter als das bisherige Top-Range-Modell MI250X (das unter anderem im derzeit schnellsten Supercomputer der Welt zum Einsatz kommt).
Im Rahmen der Ankündigung stellte AMD auch seine neue Instinct-Plattform vor, ein Server-Referenzdesign, das auf den Spezifikationen des Open Compute Project basiert und acht MI300X-GPUs für generative KI-Trainings- und Inferenz-Workloads verwendet. Unternehmen und Hyperscaler sollen die Plattform künftig nutzen, um MI300X-Chips in ihre bestehenden OCP-Serverracks zu integrieren. Der MI300X soll ab dem dritten Quartal 2023 verfügbar sein. (fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.