AWS Bedrock

Generative AI as a Service debütiert

14.04.2023
Von 
Anirban Ghoshal ist Senior Writer für Enterprise-Software, Datenbanken und Cloud-Infrastruktur bei unserer US-Schwesterpublikation InfoWorld.
Mit dem neuen Cloud Service Bedrock will AWS seinen Kunden Basismodelle für eigene, generative KI-Anwendungen zur Verfügung stellen.
AWS steigt ins Generative-AI-Rennen ein. Mit seinem neuen Service Bedrock, der Basismodelle für entsprechende Anwendungen bereitstellt, hat der Cloud-Provider allerdings in erster Linie Unternehmen im Blick.
AWS steigt ins Generative-AI-Rennen ein. Mit seinem neuen Service Bedrock, der Basismodelle für entsprechende Anwendungen bereitstellt, hat der Cloud-Provider allerdings in erster Linie Unternehmen im Blick.
Foto: Rain Art - shutterstock.com

Amazon Web Services (AWS) stellt mit Bedrock mehrere Basismodelle bereit, die Unternehmen dazu nutzen können, ihre eigenen, auf ihre Bedürfnisse zugeschnittenen Generative-AI-Anwendungen zu erstellen - auch für die kommerzielle Nutzung. Via API ermöglicht Bedrock seinen Benutzern Zugriff auf Basismodelle von:

  • AI21 Labs (Jurassic-2),

  • Anthropic (Claude),

  • Stability AI (Stable Diffusion) und

  • Amazon (Titan Foundation).

Der Service befindet sich momentan in der Preview - und kommt zeitlich nur kurz nach der Ankündigung von Databricks, mit Dolly 2.0 ein eigenes, quelloffenes Sprachmodell veröffentlichen zu wollen. Beide Offerings verfolgen eine ähnliche Strategie: Sie sollen Unternehmen dabei unterstützen, die Beschränkungen von Closed-Loop-Modellen wie ChatGPT zu umgehen, um ihre eigenen maßgeschneiderten Generative-AI-Anwendungen zu entwickeln.

Die geschlossene ChatGPT-Welt hat dazu geführt, dass Open-Source-Modelle und anderen alternative Methoden, die auch für die kommerzielle Nutzung geeignet sind, mächtig Rückenwind erhalten haben. Schließlich benötigen Unternehmen anpassbare Modelle für ihre spezifischen Use Cases.

"Die Schweiz der Cloud-Giganten"

Mit Titan Foundation bietet AWS selbst zwei Modelle an, die über den neuen Service angeboten werden. Es handelt sich um dabei um Large Language Models (LLMs), die in den kommenden Monaten allgemein verfügbar sein sollen. LLMs sind KI-Modelle, die auf umfangreichen Textdaten trainiert werden, um menschenähnliche Antworten zu generieren.

  • Beim ersten Modell "Titan Text" handelt es sich laut AWS um ein generatives LLM für Tasks wie Zusammenfassungen, Texterstellung, Klassifizierung, offene Fragen und Informationsextraktion.

  • Das zweite Modell "Titan Embeddings" übersetzt Texteingaben (Wörter, Phrasen und auch große Textbausteine) in numerische Repräsentationen (bekannt als Embeddings), die die semantische Bedeutung des Textes enthalten. Dieses Verfahren ist für Anwendungen wie Personalisierung oder Suche nützlich, da das Modell statt Wörtern zahlenbasierte Embeddings abgleicht und so zu relevanteren kontextbezogenen Antworten kommt.

Die Titan-Foundation-Modelle sollen laut AWS dazu dienen, schädliche Inhalte in Unternehmensdaten zu erkennen, unangemessene Inhalte in Prompts zu entfernen und auch Outputs, die beispielsweise Hate Speech, Gewalt oder Pornographie enthalten, zu bereinigen.

Swami Sivasubramanian, Vice President of Data and Machine Learning bei AWS, erklärt in einem Blogpost: "Mit Bedrock können Unternehmen das richtige Modell für Anwendungsfälle finden und es mit ihren Unternehmensdaten anreichern, bevor es über AWS-Tools in ihre Anwendungen integriert und bereitgestellt wird. Die Kunden füttern Bedrock einfach mit einigen gelabelten Beispielen in Amazon S3. Zwanzig solcher Beispiele sind dafür bereits ausreichend - der Service übernimmt das Feintuning für eine bestimmte Task, ohne dabei riesige Datenmengen annotieren zu müssen." Dabei seien alle Daten verschlüsselt und würden die Virtual Private Cloud des Kunden nicht verlassen. Diese könnten sich darauf verlassen, dass ihre Daten vertraulich blieben, verspricht der AWS-Manager.

AWS schlägt mit Bedrock einen anderen Weg ein als seine großen Generative-AI-Konkurrenten Microsoft und Google. Wall-Street-Journal-Autor Tom Dotan beschreibt die Strategie des Unternehmens in seinem Artikel zur AWS-Ankündigung wie folgt:

AWS … hat es vermieden, in großem Stil in ein externes KI-Unternehmen oder Consumer-Tools zu investieren. Das Unternehmen will nach eigener Aussage als neutrale Plattform für Unternehmen fungieren, die generative KI-Funktionen realisieren wollen. AWS vermarktet sich selbst als die Schweiz der Cloud-Giganten.

Neben Bedrock hat AWS zudem die allgemeine Verfügbarkeit seines KI-basierten Code-Generators CodeWhisperer für Python, Java, JavaScript, TypeScript und C# angekündigt. Das Produkt steht in Konkurrenz zu Microsofts GitHub CoPilot.

Außerdem allgemein verfügbar: Inf2-Cloud-Instanzen, die vom hauseigenen KI-Chip Inferentia angetrieben werden. Diese Instanzen sind laut AWS "speziell für Generative-AI-Applikationen in großem Maßstab optimiert und bieten Modelle mit hunderten Milliarden von Parametern". (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.