Generative AI als Managed Service

Amazon Bedrock bietet vortrainierte Modelle

02.10.2023
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
AWS pimpt seine Cloud mit weiteren KI-Services. Dreh und Angelpunkt ist Amazon Bedrock, ein Managed Service mit dem Anwender verschiedene Foundation Models beziehen und anpassen können.
AWS will Kunden mit zusätzlichen Generative-AI-Services ködern.
AWS will Kunden mit zusätzlichen Generative-AI-Services ködern.
Foto: Michael Vi - shutterstock.com

Amazon Web Services (AWS) tunt sein Cloud-Angebot mit zusätzlichen KI-Services. Anwenderunternehmen sollen damit neue Generative-AI-Applikationen bauen, die Produktivität ihrer Mitarbeiter erhöhen und ihre Geschäft transformieren können, verspricht der weltgrößte Cloud-Provider. Das sind die fünf neuen KI-Angebote im Einzelnen:

  1. Amazon Bedrock: AWS offeriert mit Amazon Bedrock einen Managed Service, mit dessen Hilfe Kunden Anwendungen für generative AI einfach entwickeln und betreiben könnten, hieß es. Bedrock mache vortrainierte Foundation-Models (FMs) beispielsweise von KI-Startups wie Anthropic, AI21 Labs und Stability AI über eine API zugänglich. Unternehmen könnten dann die verschiedenen Modelle mit ihren eigenen Daten für individuelle Anwendungsbereiche anpassen. Dabei sei der Schutz und die Sicherheit der Daten gewährleistet, versprechen die AWS-Verantwortlichen.

    Amazon kauft sich bei Anthropic ein

    Auf Basis der so trainierten KI-Modelle, könnten Kunden sogenannte Managed Agents einrichten, die auch komplexe Business-Aufgaben erledigen könnten. Bedrock funktioniere Amazon zufolge Serverless, so sich Anwender nicht um Einrichtung oder Betrieb der zugrundeliegenden Infrastruktur kümmern müssten. Via AWS PrivateLink lasse sich Bedrock mit einer Virtual Private Cloud (VPC) auf Kundenseite verbinden. Dabei laufe der Datenverkehr nicht über das öffentliche Internet, was zusätzlich für Mehr Sicherheit sorge.

  2. Amazon Titan Embeddings: Dabei handelt es sich um ein Large Language Model (LLM) aus der von AWS entwickelten und vortrainierten FM-Familie Titan FM. Amazon Titan Embeddings wandelt Text in numerische Darstellungen, sogenannte Embeddings, um. Zentraler Use Case ist laut Anbieter Retrieval-Augmented Generation (RAG). Dabei handelt es sich um eine Technik, um Modelle anzupassen. RAG sorgt für eine Verbindung des FM zu einer Wissensquelle, auf die sich das Modell beziehen kann, um seine Antworten zu ergänzen.
    Das Problem bisher: Der Aufbau eines solchen Einbettungsmodells erfordert riesige Datenmengen und Ressourcen sowie tiefes Machine-Learning-Fachwissen. Amazon Titan Embeddings soll Kunden den Einstieg mit RAG erleichtern, um die Leistung eines FM mit eigenen Daten zu erweitern. Amazon Titan Embeddings unterstützt AWS zufolge mehr als 25 Sprachen und eine Kontextlänge von bis zu 8192 Token. Der Service sei damit gut geeignet, mit einzelnen Wörtern, Phrasen oder ganzen Dokumenten zu arbeiten. Das Modell liefere Ausgabevektoren mit 1536 Dimensionen. AWS spricht in diesem Zusammenhang von einem hohen Maß an Genauigkeit und niedrigen Latenzzeiten.

  3. Llama 2 in Bedrock: Amazon Bedrock bietet Kunden neben den oben bereits genannten FMs auch Llama 2 als Managed Service. Die neue Version des LLM der Facebook-Mutter Meta sei AWS zufolge gegenüber den ursprünglichen Llama-Modellen erheblich verbessert worden. Llama 2 sei unter anderem auf 40 Prozent mehr Daten trainiert und funktioniere mit einer größeren Kontextlänge von 4000 Token, um mit größeren Dokumenten arbeiten zu können. Die via Bedrock verfügbaren Llama 2-Modelle seien für eine schnelle Reaktion auf der AWS-Infrastruktur optimiert worden und eigneten sich vor allem für Dialoganwendungen.

  4. Amazon QuickSight: AWS hat außerdem eine Preview-Version mit neuen Authoring-Funktionalitäten für Amazon QuickSight veröffentlicht. Die Business-Intelligence- (BI)Anwendung unterstützt Analysten dabei, Inhalte wie Grafiken, Diagramme oder Berechnungen durch Beschreibungen in natürlicher Sprache zu generieren.

  5. Amazon CodeWhisperer: Des Weiteren hat AWS neue Funktionen für Amazon CodeWhisperer angekündigt. Der Service bietet der Codeempfehlungen für Entwickler auf der Grundlage ihrer Kommentare in natürlicher Sprache und des Codes in der integrierten Entwicklungsumgebung. Die neuen Funktionen sollen in Kürze in einer Preview-Version verfügbar sein.

Transformatives Potenzial besser nutzen

Swami Sivasubramanian, Vice President of Data and AI bei AWS, bezeichnete die jüngsten Ankündigungen als wichtigen Meilenstein. AWS biete seinen Kunden mehr Sicherheit, Auswahl und Leistung und helfe ihnen gleichzeitig, ihre Datenstrategie im gesamten Unternehmen eng aufeinander abzustimmen, damit sie das transformative Potenzial von Generative AI optimal nutzen könnten, warb der Manager. Damit gelange Generative AI in die Hände jedes Unternehmens, von Startups bis hin zu Unternehmen, und jedes Mitarbeiters, von Entwicklern bis hin zu Datenanalysten.