IBM hat angekündigt, sein KI-Paket watsonx mit dem Large Language Model (LLM) Llama 2 von Meta anreichern zu wollen. Die Verantwortlichen des IT-Pioniers sprachen von einem weiteren Meilenstein in der eigenen Generative-AI-Roadmap. IBM wie Meta hätten sich zu Open Innovation verpflichtet und würden gemeinsam an Open-Spurce-Projekten im AI-Umfeld arbeiten. Dazu zählen beispielsweise das Machine-Learning-Framework PyTorch und der Query-Engine Presto, die ebenfalls in watsonx verwendet werde.
IBM hatte watsonx im Mai 2023 vorgestellt. Das KI-Paket beinhaltet dem Anbieter zufolge Werkzeuge, um KI-Modelle zu erstellen (watsonx.ai Studio), eine Datenplattform (watsonx.data) sowie ein Governance-Toolset.
Large Language Model für das Business-Umfeld
Laut Hardy Gröger, IBM Distinguished Engineer und Technical Lead Data and AI in der DACH-Region, ziele watsonx explizit auf den Einsatz im Business-Umfeld und unterscheide sich fundamental von Systemen wie ChatGPT von OpenAI und Googles Bard. Der IBM-Manager verweist auf
die Verwendung offener Technologien,
den verantwortungsvollen Umgang mit Daten,
die Business-Orientierung der Lösungen, die sich an verschiedenste Geschäftsmodelle anpassen ließen, und
die Unterstützung der User, Mehrwerte für ihren Betrieb zu generieren.
KI-Entwickler könnten mit watsonx auf optimierte Encoder-Modelle sowie fünf einsatzbereite Open-Source-Modelle verschiedener Architekturen zurückgreifen, hieß es von Seiten IBMs. Diese seien bereits ab Werk für eine Reihe von NLP-Aufgaben (Natural Language Processing) trainiert. Dazu gehört IBM zufolge Fragen zu beantworten, Inhalte und Zusammenfassungen zu erstellen sowie Texte zu klassifizieren und zu extrahieren. Künftige Releases würden weitere, IBM-eigene Foundation-Modelle mitbringen, die auf bestimmte Industrien oder Aufgabenbereiche zugeschnitten seien.
Darüber hinaus bietet IBM die Möglichkeit, KI-Modelle von Drittanbietern in watsonx zu integrieren. Neben Llama 2 der Facebook-Mutter Meta könnten Anwender künftig auch auf Modelle aus der Hugging-Face-Community zugreifen. Dabei handelt es sich um eine Open-Source-Bibliothek von KI-Modellen, die für verschiedenste Einsatzszenarien vortrainiert sind.
Nutzer als QA-Tester für Llama 2
Meta hatte die nächste Generation seines offenen LLM Llama 2 erst Mitte Juli der Öffentlichkeit präsentiert. Die Facebook-Mutter kündigte an, das Generative-AI-Tool Open Source zu stellen. Forschungseinrichtungen und Unternehmen könnten Llama 2 damit nach Belieben frei nutzen, auch für kommerzielle Zwecke. Darüber hinaus soll das Modell für verschiedene Plattformen wie Microsoft, AWS, Hugging Face und andere Provider zugänglich sein, hieß es vor wenigen Wochen.
Large Language Models erklärt: Was sind LLMs?
"Open Source treibt Innovation an", schrieb Facebook-Gründer und Meta-Chef Mark Zuckerberg in einem Post. Offen zugängliche KI-Modelle kämen allen zugute. Unternehmen, Start-ups und Forscher erhielten Zugang zu Werkzeugen, die ansonsten unerreichbar für sie wären.
Zuckerberg betonte außerdem, dass es sicherer sei. Entwickler und Forscher könnten die KI unter Stressbedingungen testen. So ließen sich Probleme schneller erkennen und lösen. "Indem wir sehen, wie diese Werkzeuge von anderen genutzt werden, können unsere eigenen Teams von ihnen lernen, diese Werkzeuge verbessern und Schwachstellen beheben."
Die neue Version Llama 2 sei Meta zufolge mit 40 Prozent mehr Daten trainiert worden als das Vorgänger-Release. Der Anbieter will sein Modell in unterschiedlichen Größen offerieren, mit sieben, 13 oder 70 Milliarden Parametern. IBM plant offenbar, die Variante mit 70 Milliarden Parametern in watsonx einzubauen.
Die Zahl der Modellparameter lässt Rückschlüsse auf die Qualität der Antworten zu. Vereinfacht gesagt: Je mehr Parameter, desto passgenauere Antworten liefert die KI. Meta verwies außerdem auf das Feintuning von Llama 2. Dafür seien mehr als eine Million menschliche Annotationen gesammelt worden, hieß es. Dieses sogenannte Reinforcement Learning from Human Feedback (RLHF) führe zu besseren Ergebnissen und mehr Sicherheit, versprach der Anbieter.