Jeder macht heute in KI, aber niemand weiß warum. Das ist natürlich etwas überspitzt formuliert. Aber ich habe das Gefühl, dass der Höhepunkt des KI-Hypes inzwischen erreicht ist - der der Produktivität allerdings noch in weiter Ferne liegt. Der Data-Observability-Spezialist Monte Carlo hat gemeinsam mit Wakefield Research im Rahmen seiner aktuellen "2024 State of Reliable AI Survey" (PDF) 200 Data Engineers von US-Unternehmen befragt. Demnach entwickeln 91 Prozent der Befragten KI-Anwendungen - allerdings geben zwei Drittel dieser Gruppe an, ihre Daten Large Language Models (LLMs) nicht anzuvertrauen. Mit anderen Worten: Sie bauen KI auf Sand.
Angebrachte Maßnahmen für KI-Erfolg wären:
Den Hype hinter sich lassen.
Unternehmen dabei unterstützen, KI sinnvoll zu nutzen.
Oder etwas konkreter ausgedrückt: Wir brauchen mehr Trust (in Gestalt offener Modelle) und weniger bewegliche Teile (Plattformen, die bei Modellauswahl und -einsatz Rätsel aufwerfen). Wir brauchen also so etwas wie ein Red Hat für künstliche Intelligenz. Was auch die Frage aufwirft, warum Red Hat nicht als Red Hat für KI auftritt.
LLM-Overkill statt Zugänglichkeit
Brian Stevens, ehemaliger CTO von Red Hat, hat mir einmal dabei geholfen, eine wichtige Abhängigkeit für das Geschäftsmodell des Unternehmens zu durchdringen. Wie er in einem Interview mit mir aus dem Jahr 2006 festhielt, "funktioniert das Business Model von Red Hat aufgrund der Komplexität der Technologie, mit der wir arbeiten. Eine Betriebsplattform besteht aus vielen beweglichen Teilen, und die Kunden sind bereit, dafür zu bezahlen, um vor dieser Komplexität verschont bleiben."
Auf Grundlage von Linux Raw-Code eine eigene Distribution erstellen, kann im Prinzip jeder. Und einige Unternehmen tun das auch - allerdings in der Regel nicht die der Enterprise-Kategorie. Die sind froh, Red Hat oder auch Amazon Web Services dafür zu bezahlen, keine Komponenten kompilieren zu müssen und sich sicher sein zu können, dass alles nahtlos zusammenarbeitet. Dabei ist auch wichtig, dass Red Hat selbst als Open-Source-Kontributor für das Linux-Ökosystem auftritt. Das gibt großen Unternehmen das gute Gefühl, sich nicht von Red Hat Enterprise Linux in gleichem Maße wie von proprietärem UNIX abhängig machen zu müssen. Dieser Prozess der Entmystifizierung von Linux, kombiniert mit vertrauenswürdigem Open-Source-Code hat Red Hat zu einem Multimilliarden-Dollar-Schwergewicht gemacht.
Falls Sie gerade an OpenAI denken sollten: Die verschlimmern das derzeitige Problem mit ihren Modellen nur noch. Das Unternehmen speist immer weiter Daten in seine LLMs ein. Damit optimiert es zwar seine KI-Modelle, erschwert es Unternehmen jedoch gleichzeitig, diese in der Produktion einzusetzen. Und damit ist OpenAI nicht allein: Google, Anthropic, Mistral - und wie sie alle heißen - überbieten sich regelmäßig mit neuen, großen Sprachmodellen. Das stiftet bei den durchschnittlichen Anwender-Enterprises vor allem Verwirrung.
Eventuell habe ich es auch übersehen - aber meines Wissens gibt es noch kein Unternehmen, das sich dediziert dafür einsetzt, KI für Unternehmen zugänglicher zu machen. Man würde erwarten, dass die großen Cloud-Anbieter diese Rolle ausfüllen wollen. Allerdings halten sie sich größtenteils an ihre existierenden Playbooks. AWS hat sein Milliarden-Business damit aufgebaut, indem es seinen Kunden lästige Management-Tasks mit Blick auf Datenbanken und Betriebssysteme abnimmt. Ein ähnliches Konzept verfolgt der Konzern in Sachen Generative AI - aber LLMs sind eben keine Betriebssysteme oder Datenbanken. Sie stecken immer noch in den Kinderschuhen und sind für viele weiterhin eine Blackbox.
AWS glaubt, den Kunden mit einer breiten Modellauswahl im Rahmen von Tool-Suiten wie Bedrock einen Gefallen zu tun. Dabei brauchen die meisten Anwender eine sinnvolle Anleitung zur Auswahl wesentlich dringender - und das Knowhow darüber, wie sämtliche KI-Komponenten effektiv zusammenwirken. Auch Red Hat bewirbt übrigens das "Array of Choices" seines KI-Ansatzes - macht diese Optionen für Unternehmen aber auch nicht zugänglicher. (fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.