Künstliche Intelligenz (KI) ist weiter auf dem Vormarsch. Laut Gartner werden mehr als 80 Prozent aller Unternehmen bis zum Jahr 2026 in irgendeiner Form Generative-AI-APIs oder -Apps nutzen. Diejenigen, die dazu gehören, müssen sich überlegen, wie sie ihre KI-Instanzen optimal trainieren und einsetzen - On-Premises oder in der Cloud.
Eine KI zu trainieren, erfordert spezielle Hardware, die im Vergleich zu Standard-Servern deutlich teurer ist. Die Kosten beginnen im mittleren sechsstelligen Bereich und können in die Millionen gehen. Allerdings kann das teure Equipment nicht für andere Zwecke (etwa Datenbanken) genutzt respektive wiederverwendet werden. Abgesehen von den Anschaffungs- und Wartungskosten stellt das KI-Training auch den schwierigsten und prozessintensivsten Part eines solchen Unterfangens dar. Je nach zugrundeliegendem Datensatz kann das Wochen oder auch Monate in Anspruch nehmen - die Sie unter Umständen nicht warten können oder wollen. Im Grunde haben Sie also zwei Möglichkeiten:
Sie kaufen Hardware und setzen Ihre KI im DIY-Verfahren auf.
Sie wenden sich an einen KI-Dienstleister.
AI as a Service - kurz AIaaS - ist der neueste Schrei auf dem As-a-Service-Markt und speziell auf Initiativen in Zusammenhang mit künstlicher Intelligenz ausgerichtet. Cloud Services Provider - aber auch kleinere Anbieter - haben solche Dienstleistungsangebote im Portfolio.
Im Folgenden werfen wir einen Blick darauf, wie AIaaS funktioniert, wo die Vor- und Nachteile des Modells liegen und wie die Schlüsselkriterien für entsprechende Plattformen aussehen. Abschließend stellen wir Ihnen die fünf wichtigsten KI-Dienstleister - und ihre Angebote - vor.
Wie funktioniert AI as a Service?
KI als Service bietet Anwenderunternehmen Cloud-basierten Zugang zu AI-Funktionalitäten, um diese in ihre Projekte oder Applikationen zu integrieren, ohne dafür eine eigene Infrastruktur aufbauen und pflegen zu müssen. Vorgefertigte respektive -trainierte KI-Modelle für grundlegende Anwendungsfälle wie Chatbots gewährleisten dabei, dass den Kunden zeitintensive Grundlagenarbeit erspart bleibt.
"AI as a Service ermöglicht grundsätzlich, Anwendungen im Unternehmen schneller entwickeln und bereitzustellen", konstatiert Gartner-Analyst Chirag Dekate. Dem Experten zufolge gibt es im Bereich AIaaS drei Einstiegspunkte:
die Anwendungsebene,
die Ebene der Modellentwicklung und
die Ebene der benutzerdefinierten Modellentwicklung.
Die Offerings der KI-Dienstleister beinhalten darüber hinaus oft Data Preparation für unstrukturierte Daten und die Möglichkeit, vom Anwender bereitgestellte Modelle zu trainieren. Vorgefertigte Modelle stehen im Regelfall für diverse Tasks zur Verfügung - unter anderem:
Bilderkennung,
Datenanalyse,
Der Zugriff auf die AI Services erfolgt dabei entweder über APIs oder User Interfaces. Das ermöglicht, KI-Funktionen (oft) mit minimalem Programmieraufwand in eigene Applikationen und/oder Plattformen zu integrieren.
KI als Service - Kosten und Anforderungen
Die meisten AI-as-a-Service-Anbieter nutzen ein Pay-as-you-go-Modell - entweder auf Nutzungs- oder Flatrate-Basis. Das ist im Vergleich zu IaaS- oder PaaS-Szenarien deutlich kostenintensiver. So ruft beispielsweise Nvidia für seinen Supercomputer-Service DGX Cloud monatlich pauschal 37.000 Dollar auf.
Das schlagende Argument für AIaaS sind die Kosten für die Hardware, die nötig ist, um KI On-Premises zu realisieren. Nvidias DGX Pod H100-Server ist beispielsweise ab 500.000 Dollar zu haben, das wesentlich größere Modell SuperPOD hat einen Einstiegspreis von 7.000.000 Dollar. Unternehmen, die das Preisgefüge von x86-Servern gewöhnt sind, dürften bei diesen Zahlen schnell einem Preisschock erliegen. Speziell für KMUs ist AI as a Service deshalb des Öfteren die einzige realistische Option.
Laut Mike Gualtieri, Vice President und Chefanalyst bei Forrester Research, eignet sich KI als Service auch deshalb besonders gut, um zu experimentieren: "Ihre eigene Infrastruktur für 30 Use Cases hochzufahren, wenn vielleicht nur ein paar davon funktionieren, ist nicht wirtschaftlich. Dennoch brauchen Sie die Infrastruktur, um zu testen."
Neben den Kosten für die Hardware stellt sich außerdem die Frage der Verfügbarkeit: So hat Nvidia beispielsweise mit einem enormen Auftrags-Backlog zu kämpfen. Wer heute einen On-Premises SuperPOD kaufen möchte, muss bis zu acht Monaten warten. Selbst wenn Sie also kaufen möchten und das nötige Kleingeld dafür haben, ist die einzige Option für ein zeitnahes Deployment ein KI-Dienstleister.