Leadership Excellence Program

ChatGPT - wenn der Geist aus der Flasche ist

28.06.2023
Von 

Gerhard Holzwart begann 1990 als Redakteur der COMPUTERWOCHE und leitete dort ab 1996 das Ressort Unternehmen & Märkte.  Ab 2005 verantwortete er den Bereich Kongresse und Fachveranstaltungen der IDG Business Media GmbH und baute „IDG Events“ mit jährlich rund 80 Konferenzen zu einem der führenden Anbieter von ITK-Fachveranstaltungen in Deutschland aus. Seit 2010 ist Gerhard Holzwart geschäftsführender Gesellschafter der h&g Editors GmbH und ist in dieser Funktion als Event Producer, Direktmarketingspezialist und ITK-Fachredakteur tätig.        

Dass die Unternehmen in Deutschland mit AI schon mehr als erste erfolgreiche Gehversuche absolviert haben, machte Jürgen Hill, Chief Reporter Technologies bei der Computerwoche, deutlich. Erste Erfahrungen im Medienalltag zeigen demnach, dass sich mit dem AI-Tool ChatGPT Artikel, Whitepaper und Werbemailings durchaus seriös erstellen lassen. Auch im Bereich KI-gesteuerter SEO-Optimierung gebe es vielversprechende Ansätze. Auf die nötige Qualitätskontrolle durch eine redaktionelle Instanz würde der Content-Experte derzeit allerdings noch nicht verzichten wollen.

Immer mehr AI-Projekte in Deutschland

Auch außerhalb der Medienbranche befinden sich Hill zufolge viele AI-Projekte bereits im Beta-Stadium und in den meisten Fällen sei der Rollout noch für dieses Jahr geplant. Und in vielen Firmen bilde AI sogar schon das Rückgrat essenzieller Geschäftsprozesse. Als Beispiele nannte er unter anderem den Konfitüren-Hersteller Zentis, der als Vertreter der so genannten Non-Diary-Industry mit Fruchtzubereitungen für Industriekunden sowie mit Endprodukten für Consumer gleichermaßen B2B- und B2C-Märkte adressiert.

Dort gelang es, binnen weniger Tage das gesamte Order-Management mit Hilfe einer Cloud-basierten AI-Lösung völlig neu aufzustellen. Ziel sei es gewesen, den Prozess weitestgehend zu automatisieren und manuelle Nacharbeiten in Form von E-Mail-Korrespondenz mit E-Mail-Anhängen so weit wie möglich zu eliminieren. Aktuell könnten so bereits 80 Prozent aller Bestellungen automatisch abgewickelt werden.

Als weiteres Paradebeispiel für die strategische Nutzung von AI gilt inzwischen BMW. Der Münchner Automobilhersteller hat, wie Hill erläuterte, die Künstliche Intelligenz als einen der fünf Schwerpunktbereiche für IT-Innovationen im Jahr 2023 definiert. Zudem gehen die verantwortlichen Business- und IT-Manager dort davon aus, dass in den kommenden fünf Jahren jeder Prozess ihrer Wertschöpfung durch künstliche Intelligenz unterstützt wird.

Eines der großen Projekte, das BMW vorantreibt, ist ein synthetischer Objekterkennungsdatensatz mit 800.000 Bildern, der den Angaben zufolge für ein schnelleres KI-Training verwendet und als AI-Pipeline für Digital Twins verwendet werden soll. Eine weitere AI-basierte Anwendung wurde in der Sichtprüfung zur Qualitätssicherung implementiert.

Auch Thomas Kleine-Möllhoff, Country Lead von Pfizer Deutschland, bestätigte, dass sein Unternehmen in Sachen KI längst nicht mehr in den Kinderschuhen steckt: ""Wir setzen KI schon seit mehreren Jahren entlang unserer gesamten Wertschöpfungskette von Forschung & Entwicklung über Produktion bis hin zur Vermarktung ein. Hinzu kommt jetzt natürlich auch bei uns der gesamte Bereich Generative KI. Hier besteht unser Ansatz im Wesentlichen darin, groß zu denken, klein anzufangen und dann potenziell schnell zu skalieren." Dies setze voraus, dass es gelinge, die richtigen Anwendungsfälle zu identifizieren. Grundsätzlich sieht der Pharma-Manager vor allem in der Arzneimittelentwicklung viel Potenzial, um mit Hilfe von KI die Entwicklungszeiten zu verkürzen.

Die vierte industrielle Revolution findet gerade statt

Einig waren sich die Roundtable-Teilnehmer auch darin, dass die künstliche Intelligenz eine der Schlüsselfunktionen für die vierte industrielle Revolution ist, die physische, digitale und biologische Welten miteinander vernetzt. Insbesondere die jüngsten Technologiesprünge im Bereich Generative AI und durch den Bot ChatGPT stellen auch aus Sicht der LEP-Alumnis viele Geschäfts- und Betriebsmodelle zur Disposition. Gleichzeitig befinde man sich in einem immensen Zwiespalt. Man mache sich Sorgen, zu spät dran zu sein und etwas Wettbewerbsentscheidendes zu verpassen. Gartner hat dies unlängst mit dem geflügelten Wort einer "fear of missing out" treffend umschrieben.

Generative AI und die Risiken

Entscheidend tragen zu diesem Dilemma aber auch die Risiken bei, denn die immer mächtigeren Werkzeuge einer Generative AI sind in der Lage, ebenso viel Schaden wie Nutzen anzurichten. So lassen sich Fake-Daten erzeugen, die wiederum dazu verwendet werden können, Cloud-Systeme zu überlisten, Angriffe zu initiieren und das Systemverhalten einer kompletten IT-Infrastruktur zu manipulieren.

Viele Security-Experten sehen daher vor allem die Chief Information Security Officer (CISOs) einem stärkeren Druck ausgesetzt, wenn das betreffende Unternehmen KI zur Effizienzsteigerung einsetzen möchte - und man sich gleichzeitig immer intensiver mit KI-gesteuerten Angriffen auseinandersetzen muss, die auf der automatisierten Ausnutzung von Schwachstellen basieren.

Auch aus gesellschaftlicher Sicht hat generative KI nach allgemeinem Verständnis auch der Roundtable-Teilnehmer das Potenzial, die Zivilisation in einem Ausmaß zu verändern, wie es die Erfindungen des Rades, der Druckerpresse oder der Maschinen zur Stromerzeugung getan haben. Und wie bei jedem technologischen Fortschritt sind erhebliche Risiken zu berücksichtigen.

Dabei werden zunächst grundlegende Dimensionen generativer AI betrachtet. Zum einen sind dies die Auswirkungen auf den Arbeitsmarkt, da viele KI-Werkzeuge heute in der Lage sind, bestimmte wissensbasierte Aufgaben effizienter als der Mensch auszuführen, wodurch möglicherweise der Bedarf an einigen Wissensarbeitern sinkt. Genannt werden hier in erster Linie die Bereiche Datenanalyse, Recherche und das Verfassen von Berichten.

Gesellschaftliche Auswirkungen gravierend

Gleichzeitig dürfte es von Tag zu Tag schwieriger werden zu unterscheiden, was real beziehungsweise authentisch ist und was künstlich und manipulativ von einem Bot erzeugt wurde. KI-generierte Texte, Bilder und Videos verschärfen diese Herausforderungen und erfordern zusätzliche Software, die KI-generierte Inhalte kennzeichnen kann.

Generative AI werfe zudem Fragen in Schulen und Universitäten auf, in denen intellektuelle Leistungen von den eigenen Gedanken, Forschungen und Schriften der Schüler abhängen. Obwohl KI-generierte Inhalte von vorhandenen Inhalten abgeleitet sind, handelt es sich im Wesentlichen um Originalinhalte. Dies mache es schwierig, beispielsweise zwischen wissenschaftlichen Arbeiten, die authentisch von einem Menschen erstellt wurden, und Texten, die von einer Maschine erstellt wurden, zu unterscheiden.

Nicht umsonst hat Generative AI daher auch längst die Politik auf den Plan gerufen - vor allem die Europäische Union, die mit ihrem "AI Act" die Verbraucher vor Täuschung, Falschinformationen und damit Beeinflussung durch KI-basierte Empfehlungssysteme wie ChatGPT schützen möchte. Gleichzeitig soll unabhängigen Wissenschaftlern dauerhaft Zugang zu mächtigen KI-Systemen gewährt werden, um deren Risiken und Funktionsweise bewerten zu können.

Letzteres liegt derzeit jedoch in den Händen einiger weniger Unternehmen oder der Open-Source-Community - ein Umstand, der die Teilnehmer des LEP-Roundtables massiv beschäftigte. Software-AG-Manager Mentl brachte es wie folgt auf den Punkt: "Eine Herausforderung bei künstlicher Intelligenz ist, dass es sich letztendlich um Software handelt.

Für einige mächtige Modelle sind sowohl Quellcode als auch Parameter frei verfügbar. Dies setzt große Player wie Microsoft und Google, aber auch Institutionen, die sich um Kontrolle und Regulierung bemühen, unter Druck. Andererseits beschleunigt die freie Verfügbarkeit den Fortschritt generativer künstlicher Intelligenz und es wird spannend sein zu beobachten, wer sich als Taktgeber herauskristallisiert."

Beide Big Player der IT-Szene haben ja mit ihren Geldern und Forschungsanstrengungen den Geist von Generative AI im übertragenen Sinne aus der Flasche gelassen. Insbesondere beim Microsoft-Invest OpenAI dürfte jetzt auch mit Spannung zu beobachten sein, wann und in welchem Ausmaß sich das Unternehmen als selbst ernannte Non-Profit-Organisation nachhaltig kommerzialisiert. Die aktuellen Lizenzmodelle für ChatGPT deuten bereits an, in welche Richtung es gehen dürfte.

Inwieweit es also die IT-Branche wieder einmal schafft, mit Hilfe eines Frameworks Normen zu setzen und ein Gleichgewicht zwischen freiem Zugang, Kontrolle und wirtschaftlichen Interessen herzustellen, bleibt abzuwarten. Thomas Siekmann, CIO von Exasol und LEP-Alumni, blickt hier durchaus mit Sorge in die Zukunft: "Die im Kontext von Generative AI noch völlig unbeantwortete Frage ist die der Kontrolle beziehungsweise eines global verbindlichen Regelwerks. Erst recht, wenn wir über eine kommerzielle Nutzung reden. Da greift mir der Open-Source-Ansatz zu kurz."

Werden auch Sie Teil der LEP-Community!

IT-Manager und Führungskräfte aus Fachbereichen können regelmäßig Teil dieses Netzwerks werden. Das Leadership Excellence Program (LEP) bietet neben Weiterbildungsmodulen noch diverse andere Touch-Points und Veranstaltungen. Nach erfolgreichem Abschluss des Programms erhalten die Teilnehmer ein WHU Executive Certificate.

Für das nächste Modul vom 9. bis 13. Oktober 2023 sind noch wenige Plätze frei.
Der Termin für 2024 steht bereits fest: 7. bis 11. Oktober 2024
Ort: WHU Campus Düsseldorf
Weitere Informationen
Kontakt: Mirja Wagner