Amazon Web Services (AWS) stellt mit Bedrock mehrere Basismodelle bereit, die Unternehmen dazu nutzen können, ihre eigenen, auf ihre Bedürfnisse zugeschnittenen Generative-AI-Anwendungen zu erstellen - auch für die kommerzielle Nutzung. Via API ermöglicht Bedrock seinen Benutzern Zugriff auf Basismodelle von:
AI21 Labs (Jurassic-2),
Anthropic (Claude),
Stability AI (Stable Diffusion) und
Amazon (Titan Foundation).
Der Service befindet sich momentan in der Preview - und kommt zeitlich nur kurz nach der Ankündigung von Databricks, mit Dolly 2.0 ein eigenes, quelloffenes Sprachmodell veröffentlichen zu wollen. Beide Offerings verfolgen eine ähnliche Strategie: Sie sollen Unternehmen dabei unterstützen, die Beschränkungen von Closed-Loop-Modellen wie ChatGPT zu umgehen, um ihre eigenen maßgeschneiderten Generative-AI-Anwendungen zu entwickeln.
Die geschlossene ChatGPT-Welt hat dazu geführt, dass Open-Source-Modelle und anderen alternative Methoden, die auch für die kommerzielle Nutzung geeignet sind, mächtig Rückenwind erhalten haben. Schließlich benötigen Unternehmen anpassbare Modelle für ihre spezifischen Use Cases.
We’re announcing Amazon Bedrock—giving customers the easiest way to build and scale generative AI applications with access to the leading foundation models including @AnthropicAI, @AI21Labs, @StabilityAI and Amazon Titan FMs. Choice rules!https://t.co/Oon4UYgapN
— Adam Selipsky (@aselipsky) April 13, 2023
"Die Schweiz der Cloud-Giganten"
Mit Titan Foundation bietet AWS selbst zwei Modelle an, die über den neuen Service angeboten werden. Es handelt sich um dabei um Large Language Models (LLMs), die in den kommenden Monaten allgemein verfügbar sein sollen. LLMs sind KI-Modelle, die auf umfangreichen Textdaten trainiert werden, um menschenähnliche Antworten zu generieren.
Beim ersten Modell "Titan Text" handelt es sich laut AWS um ein generatives LLM für Tasks wie Zusammenfassungen, Texterstellung, Klassifizierung, offene Fragen und Informationsextraktion.
Das zweite Modell "Titan Embeddings" übersetzt Texteingaben (Wörter, Phrasen und auch große Textbausteine) in numerische Repräsentationen (bekannt als Embeddings), die die semantische Bedeutung des Textes enthalten. Dieses Verfahren ist für Anwendungen wie Personalisierung oder Suche nützlich, da das Modell statt Wörtern zahlenbasierte Embeddings abgleicht und so zu relevanteren kontextbezogenen Antworten kommt.
Die Titan-Foundation-Modelle sollen laut AWS dazu dienen, schädliche Inhalte in Unternehmensdaten zu erkennen, unangemessene Inhalte in Prompts zu entfernen und auch Outputs, die beispielsweise Hate Speech, Gewalt oder Pornographie enthalten, zu bereinigen.
Swami Sivasubramanian, Vice President of Data and Machine Learning bei AWS, erklärt in einem Blogpost: "Mit Bedrock können Unternehmen das richtige Modell für Anwendungsfälle finden und es mit ihren Unternehmensdaten anreichern, bevor es über AWS-Tools in ihre Anwendungen integriert und bereitgestellt wird. Die Kunden füttern Bedrock einfach mit einigen gelabelten Beispielen in Amazon S3. Zwanzig solcher Beispiele sind dafür bereits ausreichend - der Service übernimmt das Feintuning für eine bestimmte Task, ohne dabei riesige Datenmengen annotieren zu müssen." Dabei seien alle Daten verschlüsselt und würden die Virtual Private Cloud des Kunden nicht verlassen. Diese könnten sich darauf verlassen, dass ihre Daten vertraulich blieben, verspricht der AWS-Manager.
AWS schlägt mit Bedrock einen anderen Weg ein als seine großen Generative-AI-Konkurrenten Microsoft und Google. Wall-Street-Journal-Autor Tom Dotan beschreibt die Strategie des Unternehmens in seinem Artikel zur AWS-Ankündigung wie folgt:
Neben Bedrock hat AWS zudem die allgemeine Verfügbarkeit seines KI-basierten Code-Generators CodeWhisperer für Python, Java, JavaScript, TypeScript und C# angekündigt. Das Produkt steht in Konkurrenz zu Microsofts GitHub CoPilot.
Außerdem allgemein verfügbar: Inf2-Cloud-Instanzen, die vom hauseigenen KI-Chip Inferentia angetrieben werden. Diese Instanzen sind laut AWS "speziell für Generative-AI-Applikationen in großem Maßstab optimiert und bieten Modelle mit hunderten Milliarden von Parametern". (fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.