Konkurrenz zu Microsofts Copilot

Google verzahnt Gemini mit Business-Apps

26.02.2024
Von  und
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Matthew Finnegan lebt in Großbritannien und schreibt für unsere US-Schwesterpublikation Computerworld zu den Thema Collaboration und Enterprise IT.
Google nimmt mit seinem Gemini-LLM Fahrt auf und stellt mit Gemma neue offene KI-Modelle vor. Damit bekommen Microsofts Copilot und OpenAIs ChatGPT mehr Konkurrenz.
Google verknüpft sein LLM Gemini mit den eigenen Business-Apps. Das dürfte den Druck auf Microsoft und seinen Copilot erhöhen.
Google verknüpft sein LLM Gemini mit den eigenen Business-Apps. Das dürfte den Druck auf Microsoft und seinen Copilot erhöhen.
Foto: Google

Google hat angekündigt, sein bestehendes KI-Angebot Duet AI for Google Workspace durch Gemini for Google Workspace zu ersetzen. Damit integriert Google sein Anfang Dezember 2023 vorgestelltes Large Language Model (LLM) Gemini mit Workspace-Apps wie Docs und Gmail. Zugleich kündigte der Tech-Konzern mit Gemini Business und Gemini Enterprise zwei Abrechnungsmodelle für Unternehmen an.

Gemini Business soll auf Basis eines Jahresabonnements 20 Dollar pro Benutzer und Monat kosten. Das KI-Angebot richtet sich Google zufolge vor allem an kleinere Unternehmen und Teams, denen damit ein Einstieg in die GenAI-Welt ermöglicht werden soll. Mit diesem Plan erhielten Anwender Zugriff auf Funktionen wie zum Beispiel "Hilf mir, in Google Docs und Gmail zu schreiben", hieß es in einem Blogbeitrag von Google.

Gemini Enterprise ersetzt Duet AI für Workspace Enterprise und soll 30 Dollar pro Monat und User kosten. Auch hier müssen sich die Kunden auf ein Jahr verpflichten. Das Enterprise-Modell bietet die gleichen Funktionen wie Gemini Business plus einige Zusatz-Features, beispielsweise für KI-gestützte Meetings. So könne Gemini Untertitel in mehr als 100 Sprachpaaren übersetzen und Meeting-Notizen anfertigen, hieß es. Bestehende Kunden von Duet AI for Workspace würden automatisch auf Gemini Enterprise umgestellt.

Die Kosten für die Gemini-Nutzung werden auf die Nutzungsgebühren von Google-Workspace aufgeschlagen. Diese liegen derzeit je nach Paket bei sechs (Business Starter), 12 (Business Standard) und 18 Dollar (Business Plus) pro User und Monat.

Google verspricht bessere Chat-Experience mit dem Bot

Google verspricht seinen Kunden mit Gemini for Workspace neben den zusätzlichen Funktionen auch eine neue Experience beim Chatten mit dem Bot. Beispielsweise könnten Marketingmanager Gemini dazu verwenden, Themen für eine E-Mail-Marketingkampagne zu identifizieren, schreibt Aparna Pappu, General Manager und Vice President für den Bereich Google Workspace, in einem Blog-Beitrag. Dafür könne das KI-Modell Branchentrends sowie Markt- und Produktentwicklungen analysieren. Gemini sei darüber hinaus in der Lage, User bei der Erstellung entsprechender Texte zu unterstützen. "Gemini hilft dabei, die Arbeit von der Idee bis zur Ausführung schnell und präzise zu erledigen", stellt Pappu den Google-Kunden in Aussicht.

Im Zuge seines Gemini Business- und Gemini Enterprise-Plans verpflichtet sich Google eigenen Angaben zufolge zu Vertraulichkeit. Chats mit dem KI-Bot würden nicht für Werbezwecke oder anderweitig zum Training generativer Technologien verwendet, versichert der Anbieter. Alle Regeln zu Datenschutz und Sicherheit würden auch für Gemini for Workspace gelten.

Mit seinen neu geschnürten GenAI-Angeboten sucht Google Anschluss an die Konkurrenz. Microsoft verlangt für seinen KI-Assistenten Copilot Pro 20 Dollar und für den auf Unternehmen ausgerichteten Copilot für Microsoft 365 30 Dollar - jeweils pro Nutzer im Monat und zusätzlich zu den Gebühren für die App-Nutzung. OpenAI erhebt für ChatGPT Plus 20 Dollar an Gebühren pro Nutzer und Monat im Einzelabonnement und 25 Dollar pro Nutzer und Monat für den Teamplan - Preise für die Unternehmensversion von ChatGPT werden offiziell nicht bekannt gegeben.

Unternehmen, die bereits in Google Workspace investiert haben, werden vermutlich die KI-Dienste von Google bevorzugen, sagt J.P. Gownder, Vizepräsident und Hauptanalyst bei Forrester. Ein Wechsel zu Microsofts Stack, nur um Copilot zu nutzen, wäre zumindest kurzfristig schwer zu rechtfertigen. "Mit anderen Worten: Vorerst ist man an ein Ökosystem gebunden", so Gownder.

Frage nach dem Nutzen

Es bleibe jedoch abzuwarten, wie der Markt Googles neues GenAI-Angebot annehme, sagen die Experten. Gerade kleine und mittelständische Unternehmen davon zu überzeugen, ihre monatlichen Ausgaben durch Investitionen in Gemini Business deutlich zu erhöhen, könnte schwierig werden, vermutet Jack Gold, Gründer und Hauptanalyst von J. Gold Associates. Es gebe zwar prinzipiell großes Interesse an GenAI seitens der Betriebe. Derzeit sei allerdings schwer zu sagen, für wie nützlich die Verantwortlichen in den Firmen die Technik nach ein paar Monaten im Einsatz wirklich halten, so Gold.

"KI ist nicht immer einfach zu bedienen, und wenn die Leute den Zugang schwierig finden oder die Antworten nicht zufriedenstellend sind, werden sie vermutlich kündigen", prognostiziert der Analyst. Zudem seien die Kosten im Vergleich zu dem, was die Firmen bereits für Workspace bezahlen, beträchtlich.

Forrester-Mann Gownder verweist darüber hinaus auf kostenlose Alternativen für KMUs, wenn es darum geht, den Mitarbeitern Zugang zu KI zu verschaffen und ihnen GenAI-Funktionen für ihre Arbeit zur Verfügung zu stellen. Der Analyst bezeichnet dieses Modell als Bring your own AI (BYOAI). Allerdings, so warnt der Analyst, birgt BYOAI auch Sicherheits- und Datenschutzrisiken für Unternehmen. Das Modell sei nicht einfach zu handhaben. Im schlimmsten Fall drohe eine nicht mehr kontrollierbare Schatten-KI.

Vor diesem Hintergrund kann es für Unternehmen sinnvoll sein, auf mit entsprechenden Governance-Regeln unterfütterte Anbieter-Modelle zu setzen. Mit seinem neuen Angebot erleichtere Google Unternehmen den Einstieg in GenAI, konstatiert Ray Wang, Principal Analyst und Gründer von Constellation Research. Vorgefertigte, leicht zugängliche Modelle, die mit Governance- und Schulungsfunktionen ausgestattet seien, würden die Einstiegshürde für Unternehmen senken.

Google Gemma - offene LLMs für einfache Aufgaben

Google hat darüber hinaus mit Gemma eine neue Familie offener Modelle vorgestellt. Gemma basiert dem Anbieter zufolge auf der gleichen Technologie, die auch bei der Erstellung der Gemini-Modelle verwendet wurde. Anwender könnten damit KI-Modelle in Vertex AI bauen und diese in der Cloud auf der Google Kubernetes Engine (GKE) ausführen. Ziel sei es, KI für Entwickler in Google Cloud offener und zugänglicher zu machen.

Burak Göktürk, Vice President & General Manager für Cloud-KI bei Google, beschreibt Gemma als neue Generation von leichtgewichtigen KI-Modellen. Zunächst kommen zwei Modellgewichte heraus, Gemma 2B und Gemma 7B - beide Größen mit jeweils vortrainierten und auf bestimmte Anweisungen feingetunten Varianten. Google hat Gemma eigenen Angaben zufolge auf die Nutzung mit NVIDIAs GPUs hin optimiert.

Anwenderinnen und Anwender könnten mit Gemma generative KI-Anwendungen für einfache Aufgaben wie Texterstellung, die Bereitstellung von Zusammenfassungen sowie die Beantwortung von Fragen entwickeln, beschreibt Göktürk den Einsatzbereich. Gemma-Modelle könnten direkt auf einem Entwickler-Laptop, einer Workstation oder in der Google Cloud ausgeführt werden. Anleitungen zu offenen Gemma-Modellen will der Anbieter auf google.dev bereitstellen. Darüber hinaus sei Gemma mit Tools wie Hugging Face, MaxTex, Nvidia NeMo und TensorRT-LLM integriert.

Google hat darüber hinaus ein Toolkit für verantwortungsvolle generative KI veröffentlicht, das Anleitungen und Werkzeuge für die Erstellung sicherer KI-Anwendungen bieten soll. Das umfasse auch Aspekte wie Sicherheitsklassifizierung und Fehlerbehebung. Gemma unterstütze de Anbieter zufolge außerdem Entwickler-Tools wie Colab- und Kaggle-Notebooks sowie Frameworks wie JAX, PyTorch, Keras 3.0 und Hugging Face Transformers.