"KI treibt eine der folgenreichsten Innovationsperioden voran, die die Branche je gesehen hat", sagte Intel-CEO Pat Gelsinger anlässlich seiner Keynote auf der Computex im taiwanischen Taipeh. Der Intel-Chef schwärmte von der Magie des Siliziums, die wieder einmal exponentielle Fortschritte in der Datenverarbeitung ermögliche. Das werde "die Grenzen des menschlichen Potenzials erweitern und die Weltwirtschaft auf Jahre hinaus antreiben."
Intel hat auf der Computex eine Reihe neuer Chips vorgestellt. Das Ziel, das der US-amerikanische Halbleiterriese damit verfolgt: Das gesamte KI-Ökosystem, das sich derzeit neu sortiert, mit Compute-Power zu versorgen - vom KI-PC über Server-Prozessoren bis hin zu speziell für KI-Anforderungen ausgelegte Beschleuniger-Chips.
Im Zuge der digitalen Transformation, die sich angesichts der aktuellen KI-Entwicklungen noch einmal beschleunigt, würden sich viele Unternehmen mit neuen Herausforderungen hinsichtlich ihrer Data Center konfrontiert sehen, konstatierten die Intel-Verantwortlichen. Es gehe darum, die Rechenzentren effizienter zu betreiben, strengere Nachhaltigkeitsvorgaben einzuhalten und gleichzeitig dem Business neue digitale Möglichkeiten zu eröffnen.
Intel bringt Xeon 6 an den Start
Um die wachsenden Anforderungen zu adressieren, schickt Intel seine neue Xeon-Generation ins Rennen. Die Xeon-6-Plattform gibt es in zwei Ausprägungen - die ab sofort verfügbare E-Core-Reihe (Efficient-core), Codename Sierra Forrest, sowie die P-Core-Reihe (Performance-core), Codename Granite Rapids, die im dritten Quartal 2024 auf den Markt kommen soll.
So stellt sich Intel seine Zukunft im Data Center vor
Intel verspricht seinen Kunden mit der neuen Xeon-6-Generation mehr Rechenleistung bei niedrigerem Energieverbrauch. "Einfach gesagt - Leistung rauf, Energieverbrauch runter", brachte es Gelsinger zur Computex auf den Punkt. Gerade mit den auf Energieeffizienz getrimmten E-Core-Chips könnten Anwenderunternehmen Platz im Data Center sparen. Der Hersteller spricht von einem Konsolidierungsverhältnis von drei zu eins auf Rack-Level.
Für Intel geht es mit den neuen Xeons auch darum, an den Erzrivalen AMD verloren gegangenes Terrain zurückzuholen. Die 6. Generation der Server-Prozessoren kommt deutlich verspätet auf den Markt, weil Intel Probleme im Fertigungsverfahren hatte. Intels Marktanteile im Geschäft mit Server-CPUs sei im vergangenen Jahr um 5,6 Prozentpunkte auf 76,4 Prozent gefallen, berichtete die Nachrichtenagentur Reuters unter Berufung auf Zahlen von Mercury Research. AMD komme in der ehemaligen Intel-Domäne auf mittlerweile 23,6 Prozent.
Mit Gaudi gegen Nvidia
Den Xeons zur Seite stellt Intel seine KI-Beschleuniger aus der "Gaudi"-Reihe. "Zusammen bieten diese beiden eine leistungsstarke Lösung, die sich nahtlos in die bestehende Infrastruktur integrieren lässt", hieß es in einer Intel-Mitteilung zur Computex. Die Verantwortlichen des Chipherstellers betonten vor allem die Preisvorteile. Ein Standard-System mit acht Gaudi-2-Chips koste rund 65.000 Dollar, etwa ein Drittel vergleichbarer Angebote der Wettbewerber. Ein entsprechendes Kit mit acht neuen Gaudi-3-Beschleunigern komme auf zirka 125.000 Dollar - das entspreche etwa zwei Drittel des Preises vergleichbarer Systeme der Konkurrenz.
Intel-Chef Gelsinger bezeichnete seine Preise als "ziemlich überzeugend", vor allem im Vergleich zum Wettbewerb. "Mit anderen Worten, es zerquetscht die Konkurrenz." AMD und Nvidia geben offiziell keine Preise für ihre KI-Chips an. Reuters zufolge könne ein vergleichbares HGX-Serversystem mit acht Nvidia H100 AI-Chips nach Angaben des Anbieters von Spezialservern Thinkmate mehr als 300.000 Dollar kosten.
Intel verwies zudem auf Leistungsvorteile seiner neuen Gaudi-3-Chips. Ein Cluster aus 8.192 Chipknoten biete eine um 40 Prozent bessere Trainingszeit für KI-Modelle als ein vergleichbares Cluster mit H100-Chips von Nvidia. Auch im Handling mit gängigen Large Language Models (LLMs) wie Llama2 biete Intels Gaudi-Plattform deutliche Vorteile gegenüber Nvidias KI-Beschleunigern.
Knackt Intel mit Gaudi 3 Nvidias KI-Monopol?
Einziger Schönheitsfehler bei diesen Vergleichen: Der H100 gilt bei Nvidia längst als Auslaufmodel. Der Intel-Konkurrent hat zur Computex neue KI-Plattformen vorgestellt. Auf Blackwell in diesem Jahr soll 2025 Rubin folgen. Dabei handelt es sich um integrierte Chips aus GPU (Graphic Processing Unit), einer neuen ARM-basierten CPU namens Vera und Netzwerkkomponenten wie NVLink 6, CX9 SuperNIC und einem X1600 Converged InfiniBand/Ethernet Switch.
"Unser Unternehmen folgt Einem einjährigen Rhythmus", sagte Nvidia-CEO Jensen Huang in der taiwanischen Hauptstadt. "Unsere Grundphilosophie ist sehr einfach: Wir bauen das gesamte Rechenzentrum auf, zerlegen es und verkaufen Ihnen Teile im Jahresrhythmus, und treiben alles an die technologischen Grenzen."
KI-PCs sollen das klassische Chip-Geschäft retten
Neben dem Rechenzentrum will Intel auch im Edge- und PC-Bereich mit KI punkten. Mit der neuen KI-PC-Kategorie gehe es Intel zufolge nicht mehr nur um schnellere Verarbeitungsgeschwindigkeiten oder schlankere Designs, sondern vielmehr um die Entwicklung von Geräten, die in Echtzeit lernen und sich weiterentwickeln. Die Devices könnten die Bedürfnisse der Benutzer vorhersehen, sich an ihre Vorlieben anpassen und eine völlig neue Ära der Produktivität, Effizienz und Kreativität einläuten, verspricht der Chiphersteller.
Intel will an dieser Stelle seine Lunar-Lake-Architektur ins Spiel bringen. Der Fokus von Intels Flaggschiff-Prozessor für die nächste Generation von KI-PCs liege vor allem auf energieeffizienter Rechenleistung. Der Hersteller verspricht mit Lunar Lake einen bis zu 40 Prozent geringeren SoC-Stromverbrauch (SoC = System on Chip) und mehr als die dreifache KI-Rechenleistung. Die Chips würden voraussichtlich im dritten Quartal 2024 auf den Markt kommen, rechtzeitig zum Weihnachtsgeschäft, hieß es.
Das bringen die neuen KI-CPUs wirklich
Mit Performance- und Efficient-Cores soll es verschiedene Ausprägungen von Lunar Lake geben. Eine spezielle Intel Neural Processing Unit (NPU) der vierten Generation mit bis zu 48 Tera-Operationen pro Sekunde (TOPS) soll für die notwendige KI-Leistung sorgen. Dazu komme Intel zufolge ein neues GPU-Design, Codename Battlemage. Darin würden Xe2-GPU-Kerne für die Grafik und Xe Matrix Extension (XMX)-Arrays für die KI kombiniert.
"Intel ist eines der wenigen Unternehmen weltweit, das das gesamte KI-Spektrum abdeckt", lautete Gelsingers Fazit zur Computex. Das reiche von der Halbleiterfertigung bis hin zu PC-, Netzwerk-, Edge- und Rechenzentrumssystemen.