Am 10. Januar dieses Jahres hat Intel mit den Prozessoren aus der 4th-Gen-Xeon-Scalable-Familie eine neue Generation Server-Chips vorgestellt und damit endlich einen Haken hinter den mehr als mühevollen Markteintritt gemacht. Seit mehr als fünf Jahren entwickelte der Halbleiterriese an den neuen Xeons, Codename: "Sapphire Rapids". Ursprünglich war angedacht, die neue Xeon-Familie als Nachfolger der Ice-Lake-Generation bereits 2021 an den Start zu bringen. Doch daraus wurde nichts. Probleme in der Fertigung machten Intel immer wieder einen Strich durch die Zeitrechnung. Der Launch der 4. Xeon-Generation verzögerte sich ein ums andere Mal.
Im Januar 2023 flutete Intel dann aber den Markt regelrecht mit Sapphire-Rapids-Prozessoren. Die 4. Xeon-Generation erscheint dabei gleich in 52 Varianten. Die CPUs sortieren sich in verschiedene Serien, die der Hersteller nach Metallen sortiert:
Bronze: 3000er Serie (eine Variante)
Silber: 4000er Serie (drei Varianten)
Gold: 5000er Serie (fünf Varianten) und 6000er Serie (20 Varianten)
Platin: 8000er Serie (18 Varianten)
Darüber hinaus gibt es mit Max (9400er Serie - fünf Varianten) eine Sapphire-Rapids-Variation, die speziell für Anforderungen aus dem High-Performance-Computing- (HPC-)Bereich ausgelegt ist.
Intels Server-CPUs setzen sich aus verschiedenen sogenannten Chiplets zusammen, die über Embedded-Multi-Die-Interconnect-Bridge- (EMIB-)Verbindungen miteinander verknüpft sind. Mit Hilfe dieser Technik kann Intel eigenen Angaben zufolge mehr Rechenkerne in den Prozessoren zusammenpacken. Die MCC-Versionen (MCC = Mid Core Count) der Sapphire-Rapids-CPUs enthalten ein Chiplet mir maximal 32 Cores. Mit 15 Rechenkernen bieten die XCC-Chiplets (Extreme Core Count) zwar weniger Kerne auf, allerdings lassen sich diese Einheiten in 4er-Packs zusammenschalten, so dass die entsprechenden XCC-Versionen der neuen Xeons auf maximal 60 Rechen-Cores kommen.
Intel träumt vom goldenen Halbleiter-Zeitalter
Getaktet sind die Sapphire Rapids zwischen 1,8 und 3,7 Gigahertz. Im Turbomodus kommen fast alle neuen Xeons auf Taktraten zwischen 3,5 und 4,2 Gigahertz, einzig der Bronze-Prozessor 3408U schafft maximal 1,9 Gigahertz. An Arbeitsspeicher unterstützt jeder Prozessor zwischen 64 und 512 GB. Den Modellen aus der Max-Reihe kann zusätzlich bis zu 64 GB High Bandwidth Memory (HBM) unter die Arme greifen. Dieser HBM lässt sich als Arbeitsspeicher oder Cache verwenden. Angebunden wird der DDR5-Hauptspeicher über acht Kanäle, zwei mehr als bei den Vorgänger-Xeons. Daher wird auch der neue Sockel LGA4677 für Intels neue Server-CPUs nötig. Bestehende Hauptplatinen lassen sich nicht mit den aktuellen Prozessoren aufrüsten.
Spezielle Xeons für spezielle Einsatzgebiete
Das Gros der Sapphire Rapids ist für den Betrieb in 1- beziehungsweise 2-Sockelsystemen ausgelegt. Bestimmte Versionen aus der 6000er- und 8000er-Serie lassen sich jedoch auch in 4 beziehungsweise 8 Sockets kombinieren. Intel hat seine neuen Xeon-CPUs für bestimmte Einsatzgebiete optimiert. Neben Generalisten-Chips gibt es Spezialversionen für den IoT-Einsatz, für Virtualisierungsszenarien, den Einsatz in Netzwerken, für die Cloud sowie in Hyper-Converged- und Storage-Infrastrukturen.
Die Preise variieren beträchtlich: Für den Bronzevertreter 3408U mit acht Cores verlangt Intel 415 Dollar. Die für den 8-Sockel-Betrieb ausgelegte 8490H-Variante mit 60 Cores aus der Platin-Fraktion schlägt mit 17.000 Dollar zu Buche. Auch die HPC-Versionen aus der Max-Serie sind mit Preisen zwischen 8000 und 13.000 Dollar nicht gerade günstig.
Das Besondere an der neuen Xeon-Familie sind die integrierten Beschleuniger-Chips, die bestimmte Workloads optimieren sollen, beispielsweise Analytics, KI, Networking, Storage oder eben HPC. Die Intel-Verantwortlichen heben vor allem die verbesserten KI-Fähigkeiten hervor. Im Vergleich zu den Vorgängerprozessoren erreichten die neuen Xeons mit Hilfe des Advanced-Matrix-Extension (AMX-)Beschleunigers eine um den Faktor zehn verbesserte Trainingsleistung für KI-Modelle. Die Kombination von Xeon Max mit AMX sei bei der Verarbeitung umfangreicher Sprachmodelle sogar 20 Mal schneller.
Mehr Rechenleistung für KI-Modelle
Intel bietet Entwicklern darüber hinaus eine KI-Software-Suite an, mit der diese ihren Entwicklungsaufwand reduzieren sollen. Dabei ließen sich gewohnte KI-Tools weiter verwenden, hieß es. Intel hat seine KI-Suite eigenen Angaben zufolge mit über 400 Machine-Learning- und Deep-Learning-Modellen für die gängigsten KI-Anwendungsfälle vorkonfiguriert.
"Die Einführung der Prozessoren 4th Gen Xeon Scalable und der Produktfamilie Max Series ist ein entscheidender Moment, um den Turnaround von Intel voranzutreiben. Wir wollen unseren Weg zur Marktführerschaft im Rechenzentrum wieder aufnehmen und unsere Präsenz in neuen Bereichen ausbauen", sagte Sandra Rivera, Intel Executive Vice President und General Manager der Data Center and AI Group. Ihren Kunden versprach die Managerin mit den neuen CPUs eine schnellere Wertschöpfung und ein höheres Innovationstempo.
Mit dem Launch von Intels neuer Xeon-Generation haben zahlreiche Server-Hersteller neue Systeme angekündigt. Hier ein Überblick:
Cisco
Cisco hat angekündigt, die 7. Generation seiner Server aus der UCS C- und X-serie mit den neuen Xeons auszustatten. Darüber hinaus will der Netzwerkspezialist auch Intels Data Center GPUs aus der Flex-Series mit seiner UCS X-Series Fabric unterstützen. Anwender sollen damit hohe Rechenlasten bewältigen können, hieß es.
Detaillierte Informationen zu den kommenden UCS-Servern liegen bis dato noch nicht vor. Die Cisco-Verantwortlichen ließen bislang nur durchblicken, dass es mehr Optionen im gesamten UCS-Portfolio geben soll - mit 1RU/2RU-Rackservern mit zwei Sockeln und modularen Rechenknoten der X-Serie mit zwei und vier Sockeln. Weitere Einzelheiten will der Anbieter im Februar 2023 veröffentlichen, wenn die neue Server herauskommen sollen.
Dell Technologies
Dell hat 13 neue Rechner aus seiner PowerEdge-Reihe vorgestellt, die im eigenen Rechenzentrum genauso eingesetzt werden könnten wie in einem Public Cloud Data Center oder an Edge-Standorten am Netzwerkrand. Die Dell-Verantwortlichen stellen in erster Linie die verbesserte Rechenleistung in den Vordergrund. Beispielsweise soll der Dell PowerEdge R760 im Vergleich zu den Vorgängern eine bis zu 2,9-mal so hohe Leistung beim KI-Inferencing liefern. Dabei geht es um das Auswerten von Daten unter Verwendung trainierter KI-Modelle. Laut Dell sorgen dafür unter anderem die Intel-Features Deep Learning Boost und Advanced Matrix Extensions.
Mit den Modellen PowerEdge HS5610 und HS5620 hat Dell außerdem Server im Programm, die explizit auf die Anforderungen von Cloud-Service-Providern zugeschnitten sind, die große Rechenzentren mit Systemen verschiedener Anbieter betreiben. Die Server mit zwei CPU-Sockeln sind im 1-HE- wie auch im 2-HE-Formfaktor verfügbar.
Überarbeitet hat Dell auch die Management-Funktionen für seine Server. Das Feature Smart Flow Design aus dem Smart Cooling Portfolio soll zum Beispiel die Luftströme im Server optimieren. Damit lasse sich im Idealfall der Stromverbrauch der Lüfter um mehr als die Hälfte reduzieren, verspricht der Hersteller. Das Smart Flow Design ermögliche eine höhere Server-Leistung bei geringerem Strombedarf für die Kühlung und steigere somit die Effizienz im Rechenzentrum.
Außerdem bietet Dell mit der Software CloudIQ ein proaktives Monitoring. Features für Machine Learning und Predictive Analytics sollen Anwendern einen umfassenden Überblick über alle ihre Server liefern, unabhängig davon, wo sich diese befinden. Zu den Neuerungen zählten genauere Prognosen der Server-Performance, erweiterte Darstellungen von virtualisierten Umgebungen und die Auswahl von Wartungsprozessen.
Fujitsu
Fujitsu will die nächste Server-Generation aus seiner PRIMERGY-M7-Reihe mit den neuen Xeon-CPUs von Intel ausstatten. Um Kunden von der Leistungsfähiugkeit der neuen Server zu überzeugen, sollen die Rechner im AI Test Drive des Herstellers implementiert werden. Dieser Test Drive soll Anwenderunternehmen helfen, das richtige System für ihre KI-Anforderungen zu finden.
Fujitsu will mit den neuen PRIMERGY-M7-Systemen ab Ende März 2023 herauskommen: Zunächst mit den Modellen RX2530 M7, RX2540 M7 und TX2550 M7. Weitere Systeme wie RX4770 M7, RX8770 M7, CX400 M7, einschließlich der Zwei-Knoten-Systeme CX2550 M7 und CX2560 M7 sowie des GX2560 M7 sollen folgen.
HPE
HPE stattet die 11. Generation seiner Proliant-Server-Familie mit den neuen Xeon-Chips von Intel aus. Die Systeme seien für hybride Infrastrukturen mit unterschiedlichen Bestandteilen vom eigenen Rechenzentrum über die Cloud bis in den Edge-Bereich hinein entwickelt worden, hieß es von Seiten des Herstellers. Die Server unterstützten eine breite Palette von Workloads und würden Unternehmen dabei helfen, die Entwicklung neuer Anwendungen und Infrastrukturdienste zu beschleunigen.
Beim HPE ProLiant DL320 Gen11 handelt es sich beispielsweise um einen Server, der eigens für den Betrieb von Workloads am Edge entwickelt wurde, beispielsweise virtuelle Desktops (VDI), Video-Streaming und Analysen. Die Variante DL360 bietet dagegen auf 1-HE-Rack-Höhe verdichtete Rechenleistung für den Betrieb von Virtual Machines (VMs), Containern oder Bare-Metal-Umgebungen.
Skalierbarkeit in Sachen Speicher und Beschleuniger charakterisieren laut HPE den ProLiant DL380 Gen11 Server. Mit zwei Sockeln eigne sich das System für anspruchsvolle Workloads, die rechenstarke Data Processing Units (DPUs) und Grafikprozessoren (GPUs) erforderten. Beim Tower-Server HPE ProLiant ML350 Gen11 stehen dem Hersteller zufolge Energieeffizienz und Rechenleistung im Vordergrund. Die Rechner böten genug Flexibilität, um sie an verschiedene Workloads und Betriebsstandorte anpassen zu können.
HPE hat darüber hinaus schon angekündigt, sein Xeon-basiertes Server-Portfolio auf noch mehr Workloads und Anwendungsfälle erweitern zu wollen - dazu zählen:
HPE Synergy 480 Gen11 für das Software-defined Data Center inklusive erweiterter Private Cloud-Szenarien für Unternehmen,
HPE ProLiant DL560 Gen11 für Big Data-Workloads mit Quad-Socket-Leistung und In-Memory-Datenbeschleunigung,
HPE ProLiant DL110 Gen11 mit hochdichter, optimierter Rechenleistung für Telco 5G Services und vRAN und
HPE ProLiant ML110 Gen11, preisoptimiert für Anwendungen in kleineren Unternehmen.
Neben den klassischen Servern hat HPE auch neue Storage-Server mit aktuellen Intel-Xeon-CPUs präsentiert. Dazu zählen zwei Systeme aus der Alletra-4000er-Serie. Die Alletra-4000-Systeme, deren Vorgänger unter dem Label HPE Apollo 4000 vermarktet wurden, sind dem Hersteller zufolge auf datenzentrierte Workloads hin optimiert, beispielsweise das Handling von umfangreichen Data Lakes und Archiven sowie auf Analytics- und KI-Anwendungen, die auf einen hohen Datendurchsatz getrimmt wurden, und auf Cache-intensive Workloads und Hyperconverged Infrastructure (HCI).
Das Modell Alletra 4110 ist ein reines Flash-System mit NVMe-Speichern. Es arbeitet mit zwei CPU-Sockeln und bis zu 3 TB DDR5-Hauptspeicher. Esl ässt sich mit über 300 TB Storage bestücken. Der Server fasst maximal 20 EDSFF (Enterprise and Data Center Standard Form Factor) oder SFF NVMe-SSDs (SFF = Standard Form Factor) mit einem Datendurchsatz von insgesamt bis zu 315 GB pro Sekunde. HPE adressiert damit vor allem leitungshungrige Daten-Workloads beispielsweise rund um Machine Learning und verteilte NoSQL-Datenbanken.
Beim Alletra 4120 handelt es sich um einen hybrid angelegten Speicherserver, der sich mit Flash-Storage sowie klassischen SAS- oder SATA-Festplatten ausstatten lässt. Die Systeme arbeiten mit einem oder zwei CPUs und können mit maximal 6 TB Arbeitsspeicher ausgerüstet werden. Der Datendurchsatz erreicht maximal 225,6 GB/s. Je nach Bestückung mit NVMe-Flash-Storage oder HDDs eignen sich diese Server für unterschiedliche Einsatzszenarien, von Analysen in Data Lakes über Software-defined Storage bis hin zu herkömmlichen Archivarbeiten.
Inspur
Inspur stattet seine neue G7-Server-Plattform mit Intels aktuellen Xeon-CPUs aus und verspricht Leistungssteigerungen von mehr als 60 Prozent sowie eine um 30 Prozent verbesserte Energieeffizienz im Vergleich zu den Vorgängersystemen. Insgesamt 16 Modelle sollen verschiedenste Einsatzszenarien adressieren. Das reicht vom Allzweck-Rack-Server über Multi-Node-Systeme für rechenintensive Anwendungen bis hin zu Hyperscale-KI-Trainingsplattformen.
Mit dem TS860G7 bringt Inspur beispielsweise einen High-End-Server für die Optimierung kritischer Anwendungen. Er lässt sich maximal mit acht CPU-Sockeln bestücken und verfügt über bis zu 128 DIMM-Steckplätze mit DDR5-Speicher. Der Hersteller spricht von einer hohen Rechendichte, die auf große Kerndatenbanken, SAP HANA-Memory Computing sowie CSP-Cloud-Anwendungen ausgerichtet ist.
Für Cloud-Szenarien ist auch der High-Density-Server NF8260G7 geeignet. Die CPUs enthalten bis zu 60 Kerne. Er unterstützt verschiedene Speicherkonfigurationen, ein Netzwerk mit bis zu 100 Gbit/s sowie eine redundante Stromversorgung mit vier Mal 2700 Watt. Die Allzweck-Rack-Server NF5180G7 und NF5280G7 sollen Anwendern dagegen vor allem eine hohe Flexibilität in der Konfiguration bieten, um sich an verschiedene Einsatzszenarien anpassen zu lassen.
Speziell für den KI-Einsatz bringt Inspur die Modelle NF5468G7 sowie den NF5688G7 heraus. Der NF5468G7 lässt sich mit bis zu 112 Rechenkernen betreiben. Laut Hersteller ist das System so konfiguriert, dass es eine Vielzahl spezialisierter KI-Aufgaben bewältigen kann, darunter Deep Learning, Metaverse-Generierung, künstliche Intelligenz im Grid Computing (AIGC) und KI für wissenschaftliche Anwendungen. Beim NF5688G7 handelt es sich um eine Hyperscale-KI-Trainingsplattform. Ausgestattet mit acht Spezial-GPUs soll der Server auch anspruchsvollste KI-Computing-Aufgaben wie das Training von KI-Modellen mit Billionen von Parametern, umfangreiche Empfehlungssysteme und Metaverse-Workloads rechnen können.
Inspur stattet seine G7-Serverplattform mit unterschiedlichen Kühlsystemen aus. Eine Flüssigkühlung beziehungsweise Cold-Plate- und Full-Immersion-Flüssigkeitskühlungen auf Rack-Ebene führten zu einer deutlichen Senkung des PUE-Wertes ohne Einbußen bei der Leistung, verspricht der Hersteller. Für die luftgekühlte Wärmeableitung verwendet die G7-Serverplattform überarbeitete Designelemente, darunter Funktionen für die Steuerung auf Komponentenebene und Temperaturerkennung, einen T-förmigen Kühler sowie einen optimierten Luftauslasskanal mit Temperaturüberwachung. Diese Komponenten sollen den Stromverbrauch senken und die Effizienz der Wärmeableitung verbessern, hieß es. Eine intelligente Steuerungstechnologie soll darüber hinaus die Ressourcenauslastung automatisch überwachen und den Betriebsstatus jeder Komponente des Servers dynamisch anpassen. Damit lasse sich die Stromversorgung entsprechend den Anforderungen der Arbeitslast sicherstellen. Die Gesamtkosten der Rechenzentren sollen sich so optimieren lassen.
Lenovo
Lenovo hat unter dem V3-Label, unter dem die Infrastrukturlösungen des Herstellers zusammengefasst sind, 25 neue ThinkSystem- und ThinkAgile-Server sowie hyperkonvergente Lösungen vorgestellt, die mit Intels neuen Xeon-Prozessoren laufen. Die Systeme seien für komplexe Arbeitslasten optimiert, einschließlich KI, HPC und für containerisierte Anwendungen, hieß es.
Auch Lenovo verweist auf die in den neuen Xeons integrierten Beschleuniger, die eine effizientere Auslastung der Systeme und damit eine bessere Energieeffizienz ermöglichten. Die neuen High-End-V3-Server wie das ThinkSystem SR850 seien entwickelt worden, um leistungshungrige Anwendungen wie In-Memory-Datenbanken, große Transaktionsdatenbanken, Batch-Verarbeitung, Echtzeit-Analysen sowie virtualisierte und containerisierte Workloads effektiver zu bewältigen.
Bei den Modellen aus der ThinkSystem-SD650-Reihe kommt zudem eine neue Generation der Technologie Lenovo Neptune Direct Water Cooling zum Einsatz. Damit lässt sich dem Hersteller zufolge der Stromverbrauch um bis zu 40 Prozent senken, ohne Leistungseinbußen fürchten zu müssen. Lenovo hat in den vergangenen Jahren die Flüssigkeitskühlung über CPUs und Speicher hinaus auch auf PCIe-Leitungen, Storage sowie Grafikeinheiten (GPUs) erweitert. Mit der Neptune-Kühlung lasse sich bei HPC-Anwendungen eine bis zu viermal höhere Speicherbandbreite und eine um den Faktor 2,8 verbesserte Rechenleistung erzielen. Lenovo zufolge können auch Intels HPC-Xeons aus der Max Series inklusive HBM-Speicher und Intels Data Center Max Series GPUs per Neptune gekühlt werden, um so auch anspruchsvolle Modellierungs- und Simulations-Workloads effizient auszuführen.
Die neuen hyperkonvergenten Infrastrukturlösungen ThinkAgile V3 HX , MX und VX liefert Lenovo vorkonfiguriert mit verschiedenen Partnerangeboten aus, darunter Microsoft-, Nutanix- und VMware-Softwarefunktionen. Mit der integrierten Software Lenovo Open Cloud Automation (LOC-A) soll sich die Bereitstellung, das Provisioning und die Verwaltung von Container-Infrastrukturen beschleunigen und vereinfachen lassen. Mit Hilfe der Lenovo Cloud Native Solution für VMware Tanzu auf den ThinkAgile-VX-Systemen könnten Anwender Container und virtuelle Maschinen über eine einheitliche Steuerkonsole verwalten. Das verbessere die Ressourcenauslastung und verkürze die Entwicklungszyklen von Containern.
Supermicro
Supermicro hat mit seinem neuen Serverportfolio X13 mehr als 50 Modelle in 15 verschiedenen Server-Familien vorgestellt. Der Schwerpunkt liegt dem Hersteller zufolge auf Workloads in den Bereichen KI, HPC, Cloud Computing, Media, Enterprise und 5G/Telco/Edge. Anwender erhielten mit den neuen Servern eine um bis zu 60 Prozent bessere, Workload-optimierte Leistung. Die in Intels Xeon-Prozessoren integrierten Accelerator-Engines erhöhten die Effizienz und reduzierten die CPU-Belastung für viele kritische Arbeitslasten in den Rechenzentren.
Zum Supermicro-X13-Portfolio gehören:
SuperBlade: Die Server verwenden gemeinsam genutzte, redundante Komponenten, einschließlich Kühlung, Netzwerk, Stromversorgung und Chassis-Verwaltung, um die Rechenleistung eines ganzen Server-Racks auf einer kleineren Grundfläche bereitzustellen. Die Systeme sind für KI, Datenanalyse, HPC und Cloud optimiert.
GPU-Server mit PCIe-GPUs: Die Grafikprozessor-optimierten Systeme sind für HPC, KI/ML, Rendering und Virtual-Desktop-Infrastructure-Arbeitslasten konzipiert.
Univeral GPU-Server: offene, modulare Standard-Server, die sich für das KI-Training, HPC und Big Data Analytics eignen.
Hyper: Rackmount-Server mit flexiblen Speicher- und I/O-Konfigurationen für eine breite Palette von Anwendungen.
Hyper-E: mit einer geringen Einbautiefe vor allem für den Einsatz in Edge-Rechenzentren und Telekommunikationsunternehmen entwickelt.
BigTwin: wartungsfreundliche Systeme mit einem Hot-Swap-fähigen, werkzeuglosen Design für Cloud-, Storage- und Medien-Workloads.
GrandTwin: neue Architektur speziell für Single-Prozessor-Leistung. Das Design optimiert Rechenleistung, Speicher und Effizienz, um eine maximale Dichte zu erreichen - für eine Vielzahl von Anwendungen geeignet.
FatTwin: Multi-Node-4HE-Twin-Architektur mit acht oder vier Knoten (ein Prozessor pro Knoten). Die hochgradig konfigurierbaren Systeme sind für Rechenzentrumsinfrastrukturen mit hoher Rechen- und Speicherdichte und -optionen optimiert.
SuperEdge: mit drei anpassbaren Single-Prozessor-Knoten in einem Formfaktor mit geringer Einbautiefe für Edge-Anwendungen ausgelegt.
Edge-Server: hoch verdichtete Rechenleistung für Telco-Edge-Workloads. Die Server halten auch Temperaturen von bis zu 55 Grad Celsius aus.
CloudDC: flexibel konfigurierbar bei I/O und Speicher mit zwei oder sechs PCIe-5.0-Steckplätzen. Werkzeuglosen Halterungen und Hot-Swap-Laufwerkseinschüben versprechen eine bequeme Wartung.
WIO: flexible I/O-Optionen sowie verschiedene Speicher- und Netzwerkalternativen, um die Systeme für spezifische Anforderungen anpassen zu können.
Petascale Storage: All-Flash-NVMe-Systeme mit hoher Speicherdichte und Leistung.
MP-Server: variable Konfigurierbarkeit und Skalierbarkeit in einem 2HE- oder 6HE-Design mit vier oder acht CPUs.