"Eine neue Phase der KI", läutete Microsoft-Chef Satya Nadella auf der Hausmesse Ignite des Konzerns ein. Eine Ära, in der, so Nadella, "nicht mehr über KI als neue und interessante Technologie diskutiert werde, sondern über die Details der KI-Erstellung, ihren Einsatz sowie die damit verbundenen Produktivitätsgewinne".
Für Microsoft ist dabei noch ein anderer Punkt klar: "Das KI-Zeitalter wird das Zeitalter der Copilots". Ganz unbescheiden sieht Nadella den Konzern mit Azure als den Anbieter eines KI-Weltcomputers. Immerhin betreibt der Hyperscaler weltweit mehr als 300 Rechenzentren mit über 60 Azure-Regionen.
Klar wurde auf der Ignite zudem, dass Microsoft künftig als Full-Stack-KI-Anbieter den Anwendern alles aus einer Hand liefern will - von der Infrastruktur bis hin zu den Anwendungen auf Copilot-Basis.
Der Copilot-Stack
Orientierungshilfe bei dieser Strategie bietet Microsofts Copilot-Stack, der sich aus folgenden Layern zusammensetzt:
Der KI-Infrastruktur
Foundation-Modelle und AI Toolchain
Den eigentlichen Nutzerdaten der Anwender
Der KI-Orchestrierung
Microsoft Apps
Microsoft Copilot und anwendereigene Copilots
Wie ernst es dem Konzern dabei ist, diesen Stack mit Leben zu erfüllen, zeigte sich im Rahmen der Ignite-Hausmesse. Rund um den Copilot-Stack präsentierte das Unternehmen über 100 Neuankündigungen.
Glasfaser made by Microsoft
Dass der Anspruch des Full-Stack-KI-Anbieters nicht nur auf dem Papier besteht, veranschaulicht folgendes Beispiel: Der Konzern produziert mittlerweile sogar seine eigenen Glasfasern zur Vernetzung seiner Rechenzentren.
Diese Fasern auf Basis von Hohlkerntechnologie sollen eine um 47 Prozent höhere Geschwindigkeit ermöglichen, da die Photonen durch mikroskopisch kleine Luftkapillare anstatt durch feste Glasfasern fließen können. Erste Rechenzentren in Großbritannien hat Microsoft laut Nadella bereits mit diesem Fasertyp untereinander vernetzt.
Die KI-Neuheiten im Fokus
Insgesamt lassen sich Microsofts Ankündigungen rund um das Thema KI grob fünf wichtigen Bereichen zuordnen:
Mehr Rechenpower
Eigene KI-Chips
Neue Foundation-Modelle
Azur AI Studio
Copilot-Studio.
Microsofts Supercomputer
In Sachen Rechenpower ist Microsoft zur Ignite wohl die Überraschung des Jahres 2023 gelungen. Mit dem Supercomputer Eagle in der Azure Cloud schaffte es erstmals ein Cloud-Rechner in die Top 10 der weltweit schnellsten Supercomputer der seit 1993 erhobenen TOP500-List. Das Ergebnis ist um so beachtlicher, da es Microsoft aus dem Stand auf Platz drei schaffte.
Eagle soll in der Azure Cloud für das Training von KI-Modellen genutzt werden und basiert auf Xenon-Platinum-CPUs, gepaart mit Nividias KI-Beschleuniger H100.
Mehr Rechenpower für Azure-KI
Allerdings zählt der H100 mittlerweile fast schon wieder zum alten Eisen in Sachen KI-Beschleunigung. Nadella zufolge ist die Company schon dabei, Nividias GPU und KI-Beschleuniger H200 zu installieren. Damit sollen sich noch größere Modelle bewältigen lassen, ohne dass die Latenzzeit steigt.
Parallel dazu ist eine erste Preview Azure Confidential GPU VMS verfügbar. Damit könnten Anwender ihre KI-Modelle auf sensiblen Datensätzen in der Azure-Cloud ausführen. Die Confidential VMS wurden gemeinsam mit Nvidia entwickelt.
Allerdings verlässt sich Microsoft in Sachen KI-Hardware nicht auf einen Anbieter, sondern fährt mehrgleisig. So kündigte der Microsoft-Chef an, dass auch AMDs Vorzeige-KI-Beschleuniger MI300X in Azure eingesetzt und angeboten werden soll. Mit 192 Gigabyte High-Bandwidth-Memory und 5,2 Terabyte pro Sekunde an Bandbreite soll der MI300X die Auswahl an KI-optimierten VMS vergrößern.
Eigene Chips von Microsoft
Allerdings verlässt sich Microsoft in Sachen Chips nicht alleine auf die Partner Nvidia, AMD und Intel. Der Konzern lässt jetzt auch eigene maßgeschneiderte Chips beim Auftragsfertiger TSMC produzieren.
Maia und Cobalt
Die beiden neuen Chips, Azure Maia und Azure Cobalt, wurden Microsoft zufolge vor allem unter dem Gesichtspunkt entwickelt, um das Preis-Leistungs-Angebot des eigenen KI-Angebots optimieren zu können.
Microsoft Azure Maia ist ein KI-Beschleuniger-Chip. Er wurde für Cloud-basiertes Training und Inferencing für KI-Workloads wie OpenAI-Modelle, Bing, GitHub Copilot und ChatGPT entwickelt.
Bei Microsoft Azure Cobalt handelt es sich um einen Cloud-native Chip. Er basiert auf der Arm-Architektur und ist auf Leistung, Energieeffizienz und Kosteneffizienz für allgemeine Workloads optimiert. Den Chip will Microsoft vorerst selbst nutzen, bevor er dann im ersten Quartal 2024 auch für Kunden verfügbar sein soll.
Azure Boost allgemein verfügbar
Eine andere Infrastrukturverbesserung, Azure Boost, ist bereits jetzt allgemein verfügbar. Azure Boost ermöglicht eine höhere Netzwerk- und Speicherleistung bei der Skalierung, hieß es. Zudem reduziere Boost den Wartungsaufwand, indem Virtualisierungsprozesse, die traditionell von den Host-Servern ausgeführt werden, auf speziell für diese Prozesse optimierte Hardware und Software verlagert werden.
Microsoft verspricht mit Azure Boost eine Remote-Speicherleistung von 12,5 Gbit/s Durchsatz und 650.000 IOPS. Die lokale Speicherleistung soll 17,3 Gbit/s Durchsatz und 3,8 Millionen IOPS betragen.
Neue Foundation-Modelle
An Workloads für die neue Infrastruktur wird es Microsoft in Zukunft wohl kaum mangeln, denn der Konzern baut sein Angebot an KI-Modellen und -Services in der Azure Cloud weiter aus. So verspricht Nadella künftig alle Innovationen von OpenAI als Teil von Azure AI zur Verfügung stellen. "Wir bringen das Allerneueste von GPT-4, einschließlich GPT-4 Turbo und GPT-4 Turbo mit Vision", so der Microsoft-Chef.
GPT-4 Turbo
GPT-4 Turbo soll unter anderem günstiger sein, eine strukturierte JSON-Formatierung bieten und mit einer erweiterten Prompt-Länge aufwarten. Nadella zufolge können jetzt 300 Seiten Text in eine einzige Eingabeaufforderung eingefügt werden. Als Preview soll GPT-4 Turbo im Azure Open AI Service ab sofort verfügbar sein.
GPT-4 Turbo mit Vision
Außerdem sollen User bald in der Lage sein, GPT-4 Turbo mit Vision mit Azure AI Vision zu verbinden. Auf diese Weise sei ein Prompting mit Videos, Bildern und Text möglich. Darüber hinaus will man GPT-4 so in den Azure Open AI Service integrieren, dass User ihre eigenen Daten einbringen können, um benutzerdefinierte Versionen von GPT-4 zu erstellen.
Open-Source-KI
Auch wenn OpenAI Microsofts wichtigster KI-Partner ist, setzt Nadella nicht alleine auf diese Karte, sondern erweitert auch das Angebot an KI-Modellen auf Open-Source-Basis. So umfasst der Modellkatalog etwa Stable Diffusion, Code Llama, Mistral 7B sowie Nvidia Nemotron-3 8B.
Models as a Service
Das Open-Source-Angebot vermarktet der Konzern in Azure künftig als "Models as a Service". Dazu will Microsoft etwa gehostete APIs zur Verfügung stellen sowie entsprechende LLM-Tools. Ein erstes entsprechende Angebot sei, so Nadella, "Llama 2 as a Service". Des Weiteren stehen "Mistral as a Service" sowie "Jais as a Service" auf dem Plan.
Small Language Models (SLMs)
Im Zusammenhang mit Open Source liegt Nadella noch ein anderes Thema am Herzen: Small Language Models (SLMs). Ein erstes SLM hat Microsoft mit Phi bereits entwickelt.
Mittlerweile als Phi-2 verfügbar, soll sich das SLM mit seinen 2,7 Milliarden Parametern bei Aufgaben wie Sprachverständnis oder logischem Denken mit 50fach größeren Modellen messen können. Und das, so Nadella, mit einer um 50 Prozent besseren Leistung in Benchmarks. Den Performance-Boost im Vergleich zu LLMs habe man durch effizientere mathematische Algorithmen erreicht. Auch dieses Modell will Microsoft als Service zur Verfügung stellen.
Azure AI Studio
Allerdings nutzen die effizientesten KI-Modelle wenig, ohne die entsprechende Toolchain, um sie zu trainieren und zu orchestrieren. Und last but not least in dann noch ein entsprechendes Frontend erforderlich, damit die User auch komfortabelmit der KI arbeiten können.
Hier hat Microsoft gleich zwei Pfeile im Köcher: Azure AI Studio sowie Copilot Studio. Dabei ist das schon länger angekündigte Azure AI Studio jetzt als Preview verfügbar.
Über Azure AI Studio will der Anbieter letztlich die gesamte Tool-Kette für den Lebenszyklus eines KI-Modells zur Verfügung stellen. "Vom Erstellen, Anpassen, Trainieren und Bewerten eines KI-Modells", so Nadella, "bis hin zum produktiven Einsatz."
Darüber hinaus gehören auch integrierte Sicherheitstools mit zum Funktionsumfang. Mit ihrer Hilfe könnten Entwickler sowohl schädliche nutzergenerierte Inhalte als auch KI-generierten Unsinn in ihren Anwendungen und Services erkennen und herausfiltern. Ferner können mit Hilfe von Azure AI Studio SLMs angepasst sowie Templates in eigene KI-Modelle und -Anwendungen integriert werden.
Unter dem Strich soll Azure AI Studio damit als der One-Stop-Shop fungieren, mit dem Unternehmen im Backend agieren. Das Gegenstück auf der Frontend-Seite ist dann Copilot Studio.
Copilot Studio
Microsoft positioniert Copilot Studio als KI-Tool für die Konversation und sieht es als Ergänzung zu Microsoft Copilot für Microsoft 365. Mit seiner Hilfe sollen die User Copiloten mithilfe von natürlicher Sprache oder einer grafischen Oberfläche erstellen und anpassen können.
Auf diese Weise sollen sich Copiloten realisieren lassen, die den spezifischen Bedürfnissen und Vorlieben der Nutzer entsprechen. Ein anderer Anwendungsfall könnten Copiloten für spezifische Konversationen in vorhersehbaren Szenarien sein, die selbst verfasste Antworten und Workflows erfordern. Hier sei nur an Beispiele wie Ausgabenmanagement, HR-Onboarding oder IT-Services gedacht.
Ferner ermöglicht Copilot Studio den Brückenschlag zu Azure AI Studio und zusätzlichen Azure-Diensten. Damit können Copilots dann mit dem Conversational AI Stack verbunden werden. So können laut Microsoft Nutzer auf erweiterte Funktionen wie Spracherkennung, Stimmungsanalyse, Entity-Extraktion und mehr zugreifen.
Aus Sicht der Redaktion waren das mit die wichtigsten Ankündigungen seitens Microsofts rund um das Thema KI. Interessierte Leser, die an einem Deep Dive zu Microsoft künftiger KI-Strategie im Azure-Universum interessiert sind, sei das "Microsoft Ignite Book of News" empfohlen.