Während derzeit der KI-Zweikampf zwischen OpenAIs ChatGPT und Googles Bard die Schlagzeilen bestimmt, versucht KI-Pionier IBM sich mit seiner stärker auf Business-Anforderungen getrimmten watsonx-Technik im Markt zu behaupten. Viele Unternehmen suchten fieberhaft nach Möglichkeiten, Generative AI für sich zu nutzen, sagt Hardy Gröger, IBM Distinguished Engineer und Technical Lead Data and AI in der DACH-Region. "Aber sie sind oft überfordert, unzureichend vorbereitet und unsicher, wie sie vorgehen sollen - denn die möglichen rechtlichen Risiken sind immer noch immens und viele technische Fragen unbeantwortet."
watsonx: IBM kündigt KI-Offensive an
Hier will IBM mit dem im Mai 2023 vorgestellten watsonx ansetzen. Das KI-Paket, das Werkzeuge zum Erstellen von KI-Modellen (watsonx.ai Studio), eine Datenplattform (watsonx.data) sowie ein Governance-Toolset beinhaltet, unterscheidet sich laut Gröger fundamental von Systemen wie ChatGPT und Bard. Der IBM-Manager verweist auf
die Verwendung offener Technologien,
den verantwortungsvollen Umgang mit Daten,
die Business-Orientierung der Lösungen, die sich an verschiedenste Geschäftsmodelle anpassen ließen, und
die Unterstützung der User, Mehrwerte für ihren Betrieb zu generieren.
"Mit watsonx erhalten Kunden und Partner die Chance, KI-Modelle für den Business-Einsatz in verschiedenen Bereichen selbst anzupassen und auch komplett eigene KI-Modelle zu entwickeln", so Gröger. An den Beta- und Tech-Preview-Programmen von watsonx hätten 155 Firmen aus verschiedenen Branchen teilgenommen - von Telekommunikationsunternehmen bis hin zu Banken. Deren Feedback sei kontinuierlich in die weitere Entwicklung von watsonx eingeflossen. Herausgekommen sei eine KI-Plattform, "die die Vielseitigkeit von Foundation-Modellen mit umfangreichen Funktionen für maschinelles Lernen kombiniert und die mit eigenen Trainings- und Unternehmensdaten gefüttert werden kann".
ChatGPT und Bard: Proprietär, intransparent und unklare Datenherkunft
Die aktuell populären generativen KI-Systeme seien meistens proprietäre Public-Cloud-Systeme, stellte der IBM-Manager fest und kritisierte intransparente Prozesse sowie eine unklare Herkunft der Trainingsdaten. Diese Systeme böten keine hinreichende Sicherheit darüber, wie und wo Daten genau verarbeitet würden.
Mit watsonx behielten Anwenderunternehmen dagegen die Souveränität und Kontrolle über ihre Daten, warb Gröger. Damit ließen sich KI-Modelle mithilfe von RedHat OpenShift überall ausführen - in beliebigen Clouds wie auf lokalen Infrastrukturen. Unternehmen könnten ihre Modelle auch vor Ort mit ihren eigenen Daten ausführen und bei Bedarf auch trainieren. Durch offene Standards zur Speicherung von Daten und durch den möglichen Zugriff mittels offener Schnittstellen werde zudem das Risiko eines Vendor-Lock-in vermieden oder zumindest verringert.
Experimente im Prompt-Labor
Gröger gab weitere Details zum Funktionsumfang von watsonx bekannt. Das Entwicklungs-Toolset Watsonx.ai Studio soll ein Prompt-Labor mitbringen. Dieses soll zum Experimentieren und Erstellen von Prompts für verschiedene Anwendungsfälle und Aufgaben einladen. Im Laufe der nächsten Monate sollen zudem weitere Möglichkeiten zum Fine Tuning von Foundation-Modellen mit gelabelten Daten hinzukommen sowie Funktionen zum automatischen Erstellen von Machine-Learning-Modellen inklusive Modelltraining, Entwicklung und visueller Modellierung.
KI-Entwickler könnten in watsonx.ai initial des weiteren auf optimierte Encoder-Modelle sowie fünf einsatzbereite Open-Source-Modelle verschiedener Architekturen zurückgreifen. Diese seien bereits ab Werk für eine Reihe von NLP-Aufgaben (Natural Language Processing) trainiert. Dazu gehört IBM zufolge die Beantwortung von Fragen, das Erstellen von Inhalten und Zusammenfassungen sowie das Klassifizieren und Extrahieren von Texten. Künftige Releases von watsonx.ai würden weitere, IBM-eigene Foundation-Modelle mitbringen, die auf bestimmte Industrien oder Aufgabenbereiche zugeschnitten seien.
IBM will darüber hinaus einsatzbereite, Business-orientierte Lösungen auf Basis von watsonx bereitstellen. Dabei werde der Fokus zunächst auf Code-Entwicklung, Automatisierung von repetitiven Tätigkeiten (Digital Labor) und Cybersecurity liegen, kündigte Gröger an. Beispielsweise stelle RedHat Ansible LightSpeed in Verbindung mit dem IBM Watson Code Assistant einen Generative-AI-Service bereit, der Entwicklern das Erstellen von Ansible-Inhalten erleichtere. Sie könnten Anweisungen in natürlicher Sprache geben und der Code Assistant generiere dann mithilfe von Foundation-Modellen passende Codebeispiele.