Mitte November 2023 hatte Microsoft Azure AI Studio angekündigt - eine neue Plattform, um generative KI-Anwendungen (Generative AI; GenAI) auf Basis diverser, verschiedener Large Language Models (LLMs) zu entwickeln. Das Ziel: den Anwendern das Leben leichter machen.
Mit Azure AI Studio bekommen Sie ein System, um generative KI-Modelle auszuwählen und mit Hilfe von Retrieval Augmented Generation (RAG), Vektor-Technologien und Daten feinabzustimmen. Es stellt das Basis-Tool dar, um KI-basierte Assistenten - Copiloten - zu entwickeln und richtet sich dabei in erster Linie an erfahrene Developer und Datenwissenschaftler. Im Gegensatz dazu handelt es sich bei Copilot Studio um ein Low-Code-Tool, mit dem sich Chatbots individuell anpassen lassen.
Wir haben uns die Preview-Version von Microsofts KI-Studio en Detail angesehen.
Azure AI Studio - KI-Modellkatalog
In Sachen KI-Modellauswahl lässt sich Microsofts Azure AI Studio nicht lumpen. Die verfügbaren KI-Modelle stammen von:
Microsoft Research
OpenAI
Meta
Hugging Face
Databricks und
Nvidia.
Sie sollten also keine Probleme damit haben, das optimale Modell für Ihre Anwendung zu finden - oder zumindest eines, das gut genug dafür geeignet ist.
Azure AI Studio kann Modelle nach Sammlungen, den von ihnen unterstützten Inferenzaufgaben und den von ihnen unterstützten Aufgaben zum Feintuning filtern. Folgender Screenshot gibt Aufschluss über die Möglichkeiten:
Ganz grundsätzlich stellt Azure AI Studio KI-Modelle über zwei Mechanismen zur Verfügung:
Model as a Service (MaaS) und
Model as a Platform (MaaP).
Model as a Service heißt, Sie greifen per API auf das KI-Modell zu und bezahlen dafür in der Regel "as you go". Das Modell selbst "lebt" in einem zentralen Pool mit Zugriff auf GPU-Kapazitäten. Sämtliche Azure-OpenAI-Modelle sind in MaaS-Form verfügbar, was angesichts ihres Bedarfs an GPU-Rechenkraft Sinn ergibt.
Model as a Platform bedeutet, dass Sie das KI-Modell in virtuellen Maschinen zum Einsatz bringen, die Teil Ihres Azure-Abonnements sind.
In unserem ersten Test haben wir das Mistral 7B-Modell in einer einzelnen VM (Typ Standard_NC24ads_A100_v4) bereitgestellt. Diese verfügte über 24 vCPUs, 220 GB RAM, eine NVIDIA A100 PCIe-GPU und AMD Epyc-Prozessoren der dritten Generation. Die unbegründeten Inferenzergebnisse für unsere benutzerdefinierten Prompts waren dabei nicht beeindruckend: Die Antwort war zwar richtig, aber umgeben von irrelevanten Halluzinationen. Wobei nicht auszuschließen ist, dass das mit Prompt Engineering und/oder RAG behoben werden kann.
Wichtig zu wissen: Auch falls Ihr Azure-Konto respektive Ihre -Region keine GPU-Kontingente aufweist, können Sie auf das Model-as-a- Platform-Modell zurückgreifen. Der Nachteil dabei: Die gemeinsam genutzte GPU-Kapazität steht nur für eine begrenzte Zeit zur Verfügung (zwischen 24 und 168 Stunden). Dabei soll es sich allerdings nicht um eine Dauer-, sondern eine Überbrückungslösung handeln - bis Ihr Cloud-Administrator GPU-Kontingente beschaffen kann.
Azure AI Studio - Tools und Komponenten
Die verschiedenen Tabs von Azure AI Studio beinhalten unterschiedliche Features und Funktionen des GenAI-Entwicklungs-Hubs:
Explore bietet Zugriff auf: KI-Modellkatalog, Modell-Benchmarks, Speech-, Language- und Bildverarbeitungsfunktionen, Responsible AI sowie Prompt-Beispiele.
Über Build stehen verschiedene Tools zur Verfügung: Playground, Evaluation, Prompt Flow, Custom Neural Voice, Feintuning sowie Komponenten für Data, Indexes, Deployments und Content-Filter.
Das Manage-Tab bietet einen Überblick über Ihre Ressourcen und Kontingente.
Im Folgenden werfen wir einen detaillierten Blick auf die einzelnen Funktionen, Tools und Komponenten von Azure AI Studio.
Speech
Azure AI Studio enthält Cognitive-Service-Sprachfunktionen um sprachgesteuerte Anwendungen zu erstellen. Hierbei handelt es sich um Voice-spezifische Modelle - nicht um Generative AI. Diese Prebuilt Voice Services sind jeweils mit abspielbaren Samples ausgestattet. Zudem enthält die Voice Gallery aktuell knapp 500 verschiedene Stimmen in diversen Sprachen und Varianten.
Language
in Azure AI Services bündelt Azure AI Studio drei einzelne Sprachdienste - Text Analytics, QnA Maker und Language Understanding (LUIS). Diese Modelle ermöglichen es Ihnen, Dokumente zu klassifizieren und zusammenzufassen, in Echtzeit zu übersetzen oder NLP in Ihre Bot-Erfahrung zu integrieren.
Vision
Die Bildverarbeitungsdienste in Azure KI-Studio ermöglichen es, Text einzulesen, Bilder zu analysieren oder Gesichter mit Machine Learning und OCR zu erkennen.
Responsible AI
Die Azure-Lösung für Responsible AI heißt Content Safety Studio. Damit können Sie Text- und Bildinhalte moderieren, generative KI auf Jailbreak-Risiken abklopfen, Metaprompts konstruieren, geschütztes Material erkennen sowie Online-Aktivitäten und -Daten überwachen.
Prompt Samples
Im Bereich Prompts stehen diverse Beispiele zur Verfügung, die mitunter sehr interessant sind. So können Sie etwa erkunden, wie Sie einem Large Language Model beibringen, Bilder zu interpretieren oder grundlegende arithmetische Wortprobleme zu lösen.
Playground
Sämtliche Prompt-Beispiele lassen sich mit dem Playground-Tool von Azure AI Studio öffnen. Alternativ können Sie Ihr Projekt auch in Visual Studio Code (web) öffnen, wenn Sie lieber "im Code" arbeiten. Playground ist das nützlichste Tool in Azure AI Studio für Prompt Engineering und Hyperparameter-Tuning.
Evaluation
Mit diesem Tool haben Sie die Möglichkeit, Ihre Sprachmodelle mit Blick auf Industriestandard-Metriken zu evaluieren. Anschließend können Sie die beste Version für Ihre Bedürfnisse auswählen.
Prompt Flow
Prompt Flow ist der Ort, an dem Sie Ihr Modell zu einer Applikation erweitern können - inklusive RAG, Inhaltsfiltern, Embeddings, Code, benutzerdefinierter Sprachausgabe und Feinabstimmung. Prompt Flow bietet den Anwendern einen einfachen Einstieg, wenn es darum geht, anspruchsvolle KI-Anwendungen zu entwickeln. Das Tool ist separat auch auf GitHub verfügbar, mit eigenem SDK und Extension für Visual Studio Code.
Custom Neural Voice
Dieses Tool bietet eine Plattform (mit derzeit beschränktem Zugang, der nur auf Anfrage möglich ist), um eigene, neue KI-Stimmen für Ihre Anwendungen zu erschaffen. Zu diesem Zweck dürfen Sie "einzigartige Sprachpersonas" entwerfen und die zugehörigen Datensätze, Modelle, Tests und Endpunktverbindungen effizient managen.
Fine-tuning
In der Preview-Phase war es mit dem Feinabstimmungs-Tool lediglich möglich, Llama-2-Modelle feinabzustimmen - allerdings ausschließlich in der Region West US 3.
Data
Sie können Azure AI Studio mit Daten aus Azure Blob Storage, Azure Data Lake Storage Gen 2 oder Microsoft OneLake verbinden. Sie können auch Ihre eigenen Daten verwenden, um RAG zu implementieren.
Darüber hinaus können Sie außerdem Bilddateien (bis zu 16 MB pro Datei) für GPT-4 Turbo with Vision aus dem Playground verwenden. Wenn Sie die Bilder in einem Blob-Storage- oder Data Lake-Ordner ablegen, können Sie das Modell mit einer URL füttern und müssen die Bilder nicht einzeln hochladen.
Indexes
Vektorindizes mit Einbettungen und Azure AI Search (Vektorsuche) gestalten es effizienter, nach relevanten Daten zu suchen und umgehen zudem das Problem der Kontextlänge bei der RAG-Implementierung. Sie können Daten in Azure Blob Storage, Azure Data Lake Storage Gen 2 oder Microsoft OneLake nutzen - oder solche, die bereits vorliegen.
Deployments
Azure AI Studio unterstützt das Deployment von
LLMs
Web-Apps und
Flows.
Bei letzterem handelt es sich um GenAI-Anwendungen, die aus einer Reihe von Tools bestehen können, darunter Modelle, eigene Daten und möglicherweise Embeddings, Vektor-Datenbankabfragen und benutzerdefinierte Verbindungen. Wenn Sie einen Flow bereitstellen, erstellen Sie damit einen Endpunkt für einen KI-Service.
Content Filters
Wenn Sie ein Modell bereitstellen, können Sie über Inhaltsfilter unterschiedliche Sicherheitsstufen definieren.
Your resources
Dieser Bereich auf der Registerkarte "Manage" enthält Berechtigungen, Recheninstanzen, Verbindungen, Richtlinien und Abrechnungen für jedes einzelne KI-Projekt.
Quotas
Die Kontingente für die verschiedenen Modelle und Instanzgrößen sind derzeit in der Staging-Version der Azure AI Studio-Preview über die Registerkarte "Manage" einseh- und verwaltbar.
Azure KI-Studio - Guides und Tutorials
Über die Dokumentation von Azure AI Studio stehen bereits etliche Quickstart-Guides und Tutorials zu Microsofts Generative-AI-Hub bereit:
Hören und Sprechen mit Chat-Modellen im Azure AI Studio Playground
Ideen für Produktnamen im Azure AI Studio Playground generieren
Text und Bilder moderieren mit Content Safety in Azure AI Studio
GPT-4 Turbo with Vision für Ihre Bilder und Videos in Azure AI Studio verwenden
Eine Web-App zu Chat-Zwecken auf eigener Datenbasis bereitstellen
Q&A-Copiloten mit Prompt Flow in Azure AI Studio kreieren und bereitstellen
Weitere Einträge dürften demnächst folgen.
Azure AI Studio - Testfazit
Trotzdem sich Azure AI Studio noch in der Preview-Phase befindet, erfüllt es bereits die meisten Anforderungen an einen Application Builder im Bereich Generative AI. Der Entwicklungs-Hub dürfte in Zukunft schnell wachsen und beständig um neue Funktionen erweitert werden.
In unserem Test hat uns insbesondere die Art und Weise beeindruckt, wie (gut) die Tools Playground und Prompt Flow funktionieren. Azure AI Studio verspricht, KI-Anwendungen effizient und mit minimalem Aufwand zu erstellen - unabhängig davon, ob Sie Code schreiben können oder nicht. Allerdings sollten Sie die Prinzipien von Prompt Engineering, Embeddings, RAG und Prompt Flows durchdrungen haben. Wenn Sie allerdings selbst programmieren können, können Sie mit LangChain und LangSmith viele Dinge, die Azure AI Studio für Sie erledigt, selbst erreichen - möglicherweise auch mehr.
Die Kosten für Azure AI Studio sind abhängig von den genutzten Modellen und den bereitgestellten Instanzen. Alternative, respektive konkurrierende Angebote finden Sie etwa bei Google (Generative AI Studio) oder auch Amazon Web Services (Bedrock). (fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.