Künstliche Intelligenz, Advanced Analytics, Cloud Computing und neue Storage-Technologien helfen Unternehmen bei der Problemlösung, Entscheidungsfindung und Skalierung. Erfahren Sie hier, wie Sie mit moderner, effizienter IT-Infrastruktur im Zeitalter der Daten erfolgreich sein können.

Generative KI

Wirtschaftliche Alternativen zur GPU

05.09.2023
GPUs dominieren bei den Prozessoren für generative KI. Doch es gibt günstigere Alternativen, die für ein breites Spektrum von KI-Lösungen geeignet sind und gleichzeitig eine hohe Datensicherheit bieten.
Generative KI wird fälschlicherweise häufig mit Texterzeugung gleichgesetzt, dabei fallen auch viele Multimedialösungen in diese Kategorie.
Generative KI wird fälschlicherweise häufig mit Texterzeugung gleichgesetzt, dabei fallen auch viele Multimedialösungen in diese Kategorie.
Foto: Nicoleta Ionescu - shutterstock.com

Seitdem ChatGPT auf dem Markt ist, erobert generative KI die IT-Welt im Sturm. Laut McKinsey könnte generative KI jährlich einen Mehrwert von 2,6 bis 4,4 Billionen US-Dollar erzielen. Zum Vergleich: Das gesamte UK-BIP betrug 2021 "nur" 3,1 Billionen US-Dollar. Der Boom bei generativer KI hat inzwischen die gesamte KI-Forschung und -Entwicklung umgekrempelt. "Der Fokus bei KI verschiebt sich von den Vorhersagemodellen zu einer breiteren, dynamischeren und datenzentrierten Disziplin, wie sie bei der generativen KI benötigt wird", sagt Gartner-Analyst Peter Krensky.

Generative KI: Mehr als ChatGPT

Inzwischen gibt es neben der automatischen Textgenerierung auch viele andere Anwendungen für generative KI. Beispielsweise hat Intel Labs zusammen mit Blockade Labs ein Latent Diffusion Model für 3D (LDM3D) entwickelt. Dabei handelt es sich um das erste Diffusionsmodell, das aufgrund von Textbeschreibungen automatisch 3D-Bilder mit 360-Grad-Ansichten erstellt. Diese künstlichen Bilder sehen sehr natürlich und täuschend echt aus. Zwar gibt es bereits seit langem derartige automatische Bildgenerierungen, aber die liefern nur 2D-Bilder. LDM3D generiert dagegen 3D-Bilder mit einer 360-Grad-Ansicht. Das wird einen großen Einfluss auf die Erstellung von grafischen Inhalten in vielen Branchen haben, beispielsweise bei Medien, Gaming, Architektur und Design.

Vertrauensbildung für Medien: Deepfakes automatisch erkennen

Eine andere interessante Anwendung entstammt ebenfalls dem Intel-Lab. Dabei geht es um neue Ansätze, die die Authentizität von Medieninhalten nachprüfen - also ein Gegenstück zu den bekannten Deepfake-Manipulationen. Denn durch diese immer raffinierteren Fälschungen wird das Vertrauen in die Medien und in die private Kommunikation zunehmend erschüttert. Intel Labs entwickelt jetzt mithilfe von maschinellem Lernen und KI ein neues Authentifizierungstool, das die Echtheit von Multimediainhalten bestätigen kann. Hierbei nutzt Intel eine Deepfake-Erkennungstechnologie, die bereits in seinen skalierbaren Intel® Xeon® Prozessoren eingebettet ist. Dabei handelt es sich um den sogenannten FakeCatcher-Algorithmus, der an der State University of New York entwickelt wurde.

Standard-CPUs: Preiswerte Alternative zu GPUs

Beide Anwendungen zeigen recht deutlich, dass auch höchst anspruchsvolle KI-Anwendungen auf Basis einer Standard-CPU - wie dem skalierbaren Xeon-Prozessor in Verbindung mit Intels KI-Engines - möglich sind. Das ist vor allem deshalb interessant, weil der Einsatz von Standard-CPUs sowohl die Entwicklung als auch den Betrieb von KI wesentlich günstiger macht als der Einsatz von teuren GPUs. Hinzu kommt eine praktisch unbegrenzte Verfügbarkeit dieser CPUs. Laut Mercury Research wurden allein im vorigen Jahr knapp 400 Millionen x86-Prozessoren ausgeliefert.

Auch beim jüngsten MLPerf 3.0-Benchmark von MLCommons zeigte der skalierbare Intel-Xeon-Prozessor der 4. Generation eine fünffache Verbesserung der Inferenzleistung im Vergleich zur vorherigen Generation; in den Serverszenarien war die Leistungsverbesserung sogar zehnmal besser. Beim Test von großen Sprachmodellen (LLM) erzielte der Habana® Gaudi®2 Deep Learning Accelerator beeindruckende Trainingsergebnisse. Dieser Prozessor schnitt bei dieser Anwendung insgesamt als Zweitbester hinter einer GPU ab. Gegenüber den dominierenden GPUs bietet Gaudi2 aber erhebliche Kostenvorteile - und zwar sowohl bei den Server- als auch bei den Systemkosten.

Xeon und Gaudi: Attraktiver TCO

Ein weiteres Plus für den Einsatz von Intel-Prozessoren ist es, dass sie flexibler genutzt werden können. Die zugehörige optimierte, einfach zu programmierende offene Software senkt nicht nur die Hürde für KI-basierte Lösungen, sondern lässt sich auch im Rechenzentrum, in der Cloud oder an der Edge nutzen. "Die neuesten MLPerf-Ergebnisse bestätigen den attraktiven TCO, den die Intel-Xeon-Prozessoren und Intel-Gaudi-Deep-Learning-Beschleuniger im Bereich KI bieten", sagt Sandra Rivera, Intel Executive Vice President und General Manager der Data Center und AI Group. "Vor allem die integrierten Beschleuniger von Xeon machen diese zu einer idealen Lösung für die Ausführung umfangreicher KI-Workloads, während Gaudi wettbewerbsfähige Leistung für große Sprachmodelle und generative KI bietet", führt Sandra Rivera weiter aus.

Fazit

Nicht alle KI-Anwendungen benötigen teure GPUs. Intels Prozessoren zeigen in vielen Inferenzszenarien exzellente Performancewerte. Damit sind sie eine nahezu gleichwertige, aber deutlich kostengünstigere Alternative zu den gehypten GPUs. "Monopole sind niemals eine gute Sache, die Dominanz von GPUs kann Probleme in der Lieferkette schaffen, die zu höheren Kosten und Produktionsausfällen führen", sagt Julien Simon, Chefevangelist des KI-Unternehmens Hugging Face.

Intel und KI

MLCommons ist ein gemeinnütziges Konsortium von über 60 Unternehmen und Institutionen, die eine Reihe von KI-Benchmarks definiert haben. MLPerf 3.0 enthält zwei neue Benchmarks zur Messung der Trainingszeit für große Sprachmodelle mit GPT3 und einen für einen neuen DLRM-Benchmark für Recommender, wie sie von Netflix, Amazon, Facebook und anderen verwendet werden.