Meta hat mit Llama 2 die nächste Generation seines Large Language Model (LLM) vorgestellt. Die Facebook-Mutter kündigte an, das Generative-AI-Tool Open Source zu stellen. Forschungseinrichtungen und Unternehmen könnten Llama 2 damit nach Belieben frei nutzen, auch für kommerzielle Zwecke.
"Open Source treibt Innovation an", schrieb Facebook-Gründer und Meta-Chef Mark Zuckerberg in einem Post. Offen zugängliche KI-Modelle kämen allen zugute. Unternehmen, Start-ups und Forschern erhielten Zugang zu Werkzeugen, die ansonsten unerreichbar für sie wären. Zuckerberg betonte außerdem, dass es sicherer sei. Entwicklern und Forschern könnten die KI unter Stressbedingungen testen. So ließen sich Probleme schneller erkennen und lösen. "Indem wir sehen, wie diese Werkzeuge von anderen genutzt werden, können unsere eigenen Teams von ihnen lernen, diese Werkzeuge verbessern und Schwachstellen beheben."
Meta hat Llama 2 offenbar gemeinsam mit Microsoft entwickelt. Die Zuckerberg-Company bezeichnete Microsoft in einem Blog-Beitrag als bevorzugten Partner für die eigene KI-Entwicklung und sprach von einem neuen Level der Partnerschaft. Llama 2 sei über den KI-Modellkatalog in Microsofts Azure-Cloud verfügbar, hieß es. Entwickler könnten die dort verfügbaren Werkzeuge nutzen, um eigene Cloud-Native-Apps zu bauen. Metas neues LLM sei darüber hinaus darauf optimiert, unter Windows zu laufen.
[button href="https://www.computerwoche.de/a/14-gpt-alternativen,3614780]Large Language Models: 14 GPT-Alternativen[/button]
Allerdings will sich Meta nicht exklusiv auf Microsoft-Plattformen festlegen. Llama 2 werde darüber hinaus auch über Amazon Web Services (AWS), Hugging Face und andere Provider zugänglich sein. Google, das derzeit mit Bard seine KI-Ambitionen zu untermauern sucht, taucht in der Partnerliste für Llama 2 dagegen nicht auf.
Metas erstes KI-Modell geleakt
Meta hatte sein erstes Generative-AI-Modell Llama 1 Anfang März vorgestellt. Damals sollte das ebenfalls schon offen angelegte Tool kontrolliert an handverlesene Forschungseinrichtungen abgegeben werden. Doch damit war es schon nach wenigen Tagen vorbei. Unbekannte veröffentlichten das gesamte Modell auf einem Download-Forum im Web.
Die neue Version Llama 2 sei Meta zufolge mit 40 Prozent mehr Daten trainiert worden als das Vorgänger-Release. Der Anbieter will sein Modell in unterschiedlichen Größen offerieren, mit sieben, 13 oder 70 Milliarden Parametern. Das lässt Rückschlüsse auf die Antworten zu. Vereinfacht gesagt: Je mehr Parameter, desto passgenauere Antworten liefert die KI. Meta verweist außerdem auf das Feintuning von Llama 2. Dafür seien mehr als eine Million menschliche Annotationen gesammelt worden, hieß es. Diese sogenannte Reinforcement Learning from Human Feedback (RLHF) führe zu besseren Ergebnissen und mehr Sicherheit, verspricht der Anbieter. Die Architektur der vortrainierten Modelle basiert auf zwei Billionen Tokens und einer Kontextlänge von 4096, doppelt so lang wie bei Lllama 1.