Ein sichtlich gut gelaunter Thomas Kurian, CEO von Google Cloud, eröffnete die diesjährige Google Cloud Next 23 in San Francisco. Dort findet die Veranstaltung seit 2019 zum ersten Mal wieder als Präsenzveranstaltung statt.
Google Cloud ist profitabel
Zur guten Laune des CEO dürften nicht nur die zahlreichen KI-Neuerungen beitragen, sondern auch die Geschäftszahlen. Google Cloud, die Nummer drei unter den großen Hyperscalern, erreichte im zweiten Quartal 2023 einen Jahresumsatz von rund 32 Milliarden Dollar. Nachdem Google-Mutter Alphabet über Jahre Milliardensummen in das Cloud-Geschäft stecken musste, war Google Cloud nun das zweite Quartal in Folge profitabel.
Einen Grund für den Erfolg sieht Kurian darin, dass im Zuge der digitalen Transformation weltweit zahlreiche Großunternehmen - hierzulande etwa die Deutsche Bank oder die Deutsche Börse - auf die Cloud-Lösungen des Unternehmens setzen. Diesen Erfolgskurs will der CEO nun mit KI-Features und generativer AI fortsetzen.
Googles KI-Kurs
Dazu zählen, so der CEO, unter anderem:
eine KI-optimierte Infrastruktur
So will der Hyperscaler eine KI-optimierte Infrastruktur anbieten, auf der Unternehmen ihre KI-Modelle trainieren und betreiben können. Diese Infrastruktur soll in den verschiedenen Cloud-Regionen verfügbar sein und entweder in Rechenzentren mit Google Distributed Cloud oder am Edge laufen.
Vertex AI
Hier will man Entwickler-Tools zur Erstellung von KI-Modellen und KI-gestützten Anwendungen zu Verfügung stellen. So eigne sich Vertex Al für die Erstellung benutzerdefinierter Modelle und die Entwicklung unternehmenseigener Such- und Konversationsanwendungen mit Unternehmensdaten.
Duet AI
Hierbei handelt es sich um einen aktiven KI-Helfer, der tief in Google Workspace und Google Cloud integriert ist. Nach den ersten Ankündigungen Anfang 2023 ist Duet Al in Workspace jetzt allgemein verfügbar. Die KI kann den User beim Schreiben und in Tabellenkalkulationen unterstützen. Zudem erstellt sie Notizen in Meetings, agiert als Projektmanager sowie visueller Designer.
Noch in der Preview-Phase befindet sich Duet Ai in Google Cloud. Hier soll die KI wie ein Programmierer, Datenbankprofi oder Datenanalyst arbeiten und zudem als Berater für Cybersicherheit dienen.
Neue KI-Infrastruktur
Alle diese vielfältigen KI-Anwendungen erfordern laut CEO Kurian eine leistungsfähige Infrastruktur. Hierzu investiere man weiter in die eigenen Rechenzentren und das Netz und verfüge jetzt über ein globales Netzwerk aus 38 Cloud-Regionen. Bis 2030 soll dieses komplett CO2-frei betrieben werden.
Mit Blick auf das Thema KI kündigte der Manager etliche Infrastrukturverbesserungen an. Dazu zählen etwa:
Cloud TPU v5e
Hierbei handelt es sich um einen skalierbaren KI-Beschleuniger. Mit ihm könnten Anwender nun eine einzige Cloud-TPU-Plattform nutzen, um sowohl KI-Training als auch KI-Inferenz durchzuführen. Dabei skaliere Cloud TPU v5e auf Zehntausende von Chips und ist auf Effizienz optimiert. Im Vergleich zu Cloud TPU v4 habe man eine bis zu zweifache Verbesserung der Trainingsleistung pro Dollar und eine bis zu 2,5-fache Verbesserung der Inferenzleistung pro Dollar erreicht.
A3 VMs mit NVIDIA H100 GPU
Die A3 VMs mit NVlDlAs H100 GPU sollen im nächsten Monat allgemein verfügbar sein. Sie sind für den Bereich Gen Al und Large Language Models (LLMs) konzipiert. Im Vergleich zur vorherigen A2-Generation warte A3 mit einer dreimal besseren Trainingsleistung auf.
GKE Enterprise
Dies ermögliche eine die horizontale Skalierung über mehrere Cluster (Multi-Clustering), um anspruchsvolle, geschäftskritische Al/ML-Workloads auszuführen. Hierzu warte GKE Enterprise mit Autoskalierung, Workload-Orchestrierung und automatischen Upgrades auf und sei jetzt auch mit Cloud TPU v5e verfügbar. Erste Erfahrungen der Anwender hätten gezeigt, dass so Produktivitätssteigerungen von bis zu 45 Prozent realisierbar seien.
Cross-Cloud Network
Unter diesem Stichwort vermarktet Google eine globale Netzwerkplattform. Mit ihrer Hilfe sollen sich Anwendungen über Clouds hinweg verbinden lassen. Dank ihres ML-gestützten Sicherheitskonzepts sei die Plattform zudem für Zero-Trust-Installationen geeignet. Des Weiteren sei im Cross-Cloud-Netzwerk die Latenzzeit um bis zu 35 Prozent geringer.
Google Distributed Cloud
Für Unternehmen, die Workloads im eigenen Rechenzentrum oder am Edge laufen lassen wollen, ist die Google Distributed Cloud (GDC) konzipiert. Zusätzlich zu Hardware der nächsten Generation und neuen Sicherheitsfunktionen erweitert Google auch das GDC-Portfolio, um KI an den Egde zu bringen. Dazu zählt etwa eine Vertex-Al-Integrationen und AlloyDB Omni als Managed Service auf GDC Hosted.
Vertex AI
Ganz unbescheiden lobte Kurian Vertex AI auf der Next als die "wohl umfassendste KI-Plattform, die es Anwendern ermöglicht, Modelle für maschinelles Lernen (ML) zu erstellen, einzusetzen und zu skalieren". So biete man im eigenen Model Garden einen Zugang zu mehr als 100 Basismodellen, darunter Drittanbieter- und beliebte Open-Source-Versionen.
Die Modelle deckten verschiedene Aufgabenbereiche wie Text, Chat, Bilder, Sprache, Softwarecode ab. Darüber hinaus offeriert Google branchenspezifische Modelle wie Sec-PaLM 2 für Cybersicherheit oder Med-PaLM 2 für das Gesundheitswesen und Biowissenschaften.
Generell verfügbar sind mittlerweile auch Vertex Al Search and Conversation - ein Tool zur Erstellung von Such- und Chat-Anwendungen mit eigenen Daten - sowie das Vertex Al Generative Al Studio. Es enthält Werkzeuge zum Abstimmen und Anpassen von KI- Modellen sowie diverse Entwickler-Tools.
Darüber hinaus erweitert Google laut Kurian den Umfang seiner Vertex-AI-Plattform um etliche neue Features:
PaLM 2, Imagen and Codey Upgrades
PaLM 2 wurde auf 32k-Kontextfenster erweitert. Auf diese Weise sollen Unternehmen in der Lage sein, längere Dokumente wie Forschungsarbeiten und Bücher problemlos zu verarbeiten. Ferner verbessere man das Erscheinungsbild Imagen und Codey unterstütze neue Sprachen.
Tuning-Werkzeuge
Für PaLM 2 und Codey ist ein Adapter-Tuning verfügbar, womit die LLM-Leistung mit nur 100 Beispielen verbessert werden könne. Zudem gebe es mit dem Style-Tuning eine neue Tuning-Methode für Imagen. Unternehmen könnten so per KI Bilder erstellen, die ihre spezifischen Markenrichtlinien oder anderen kreativen Vorgaben - und das mit wenigen Referenzbildern.
Neue Modelle
Vertex AI unterstützt nun auch Llama 2 und Code Llama von Meta sowie das Open-Source-Modell Falcon LLM des Technology Innovative Institute, ein beliebtes Open-Source-Modell. In Arbeit ist der Support von Claude 2 von Anthropic. Nach eigenen Angaben ist Google Cloud im Falle von Llama 2 der einzige Cloud-Anbieter, der sowohl Adapter-Tuning als auch Reinforcement Learning from Human Feedback (RLHF) anbietet.
Vertex-Al-Erweiterungen
Mit ihrer Hilfe sollen Entwickler Unternehmensdaten einbeziehen und Aktionen in Drittsystemen wie CRM-Systemen oder E-Mail in ihren KI-Anwendungen nutzen können.
Colab Enterprise
Hierbei handelt es sich um einen Managed Service, der die Benutzerfreundlichkeit der Colab-Notebooks von Google mit Sicherheits- und Compliance-Funktionen auf Unternehmensebene kombiniert. Ferner kann Colab Enterprise dazu genutzt werden, um KI-Workflows gemeinsam zu beschleunigen. Dabei haben die User Zugriff auf alle Funktionen der Vertex-KI-Plattform.