Hewlett Packard Enterprise (HPE) arbeitet an KI-nativen Hybrid-Cloud-Architekturen, mit deren Hilfe Anwenderunternehmen KI-Modelle schneller entwickeln und ausrollen können sollen. Auf seiner Kundenkonferenz HPE Discover Ende November in Barcelona kündigte der IT-Anbieter eine Reihe von speziell auf KI-Anforderungen ausgelegten Lösungen an. Diese Pakete setzen sich aus verschiedenen Software- und Infrastrukturkomponenten zusammen, die HPE zufolge den kompletten KI-Lifecycle beschleunigen sollen. Der Anbieter spricht von "Full-Stack KI-nativen Lösungen", die Einstiegsbarrieren in die KI-Welt verringern und die Betriebe in die Lage versetzen sollen, ihre KI-Modelle effizient zu trainieren und zu tunen.
"Mit dem Aufkommen von GenAI haben viele Unternehmen erkannt, dass die Daten- und Compute-Anforderungen für den effektiven Betrieb von KI-Modellen einen grundlegend anderen Technologieansatz erfordern", sagte Antonio Neri, Präsident und CEO von HPE, zum Konferenzauftakt in der katalanischen Metropole. HPE werde seine Hybrid-Cloud-, Supercomputing- und KI-Fähigkeiten so ausbauen, dass Kunden eine KI-gestützte Transformation vornehmen könnten. Die HPE-Klientel werde ihre eigenen KI-Modelle sicher auf Basis Der eigenen Daten entwickeln können, versprach Neri.
Infrastrukturen brauchen KI-Tuning
GenAI-Workloads seien extrem rechenintensiv, beschrieben die HPE-Verantwortlichen die Herausforderung. Die dahinterliegenden Systeme müssten in der Lage sein, große Mengen an Daten schnell und effizient zu verarbeiten. Es gelte daher, die bestehenden Cloud-Infrastrukturen um einen KI-Ansatz auszubauen. Das reiche von den passenden Daten-Pipelines über eine hybride Grundstruktur, um KI an verschiedenen Stellen in der eigenen IT-Landschaft betreiben zu können, bis hin zu Supercomputing-Funktionen für das Training großer Modelle. Wichtig seien ferner Management-Software für den KI-Lifecycle und ein offeneS Ökosystem, um unterschiedliche Komponenten miteinander verknüpfen zu können.
HPE stellte zusammen mit Nvidia ein vorkonfiguriertes Komplettsystem für KI-Workloads vor. Anwender könnten damit vortrainierte Basismodelle mit eigenen Daten anpassen und in Betrieb nehmen, hieß es. Dabei verbesserten sogenannte RAG-Workstreams (Retrieval-Augmented Generation) die Datenqualität und Genauigkeit der KI-Anwendung.
Das neue System basiert HPE zufolge auf einer Rack-Scale-Architektur mit dem HPE ProLiant Server DL380a, der mit NVIDIA L40S GPUs, NVIDIA BlueField-3 DPUs und der NVIDIA Spectrum-X Ethernet Networking Platform bestückt ist. Ausgelegt ist das System mit 16 HPE-Servern und 64 Nvidia-GPUs für das Feintuning eines Llama-2-Modells mit 70 Milliarden Parametern.
Integriert wurde außerdem das HPE Machine Learning Development Environment. Anwender finden hier Funktionen zum schnelleren Prototyping und Testen von KI-Modellen. Darüber hinaus hat HPE seine Ezmeral Software um GPU-fähige Funktionen erweitert, die das Bereitstellen von KI-Modellen vereinfachen und die Datenvorbereitung für KI-Anwendungen in der Hybrid Cloud beschleunigen sollen. Für mehr Speed in der Entwicklung und Bereitstellung von KI-Produktionsumgebungen soll auch die Software NVIDIA AI Enterprise sorgen. Darin enthalten sind Nvidias NeMo-Framework, sogenannte Guardrailing-Toolkits für mehr Sicherheit und Stabilität sowie Werkzeuge für die Datenkuratierung und vortrainierte Modelle, um den GenAI-Einsatz im Unternehmen zu optimieren.
Ein weiterer Bestandteil von HPEs KI-Paketen ist HPE GreenLake for File Storage. Laut Anbieter handelt es sich dabei um eine All-Flash-Plattform für unstrukturierte Daten, die sich vor Ort betreiben, aber aus der Cloud verwalten lassen soll. Das System unterstützt jetzt NVMe SSDs mit 30 Terabyte und das InfiniBand-Netz NVIDIA Quantum-2. Das erhöhe die Kapazitätsdichte und den Datendurchsatz für KI-Anwendungen um den Faktor sieben, hieß es.