Die Technologie ist da, ob wir wollen oder nicht. Unternehmen können aktuell nur schätzen, wie viele ihrer Mitarbeiterinnen und Mitarbeiter ChatGPT und Co. im Alltag produktiv einsetzen und genau die KI-Expertise aufbauen, die jahrelang von ihnen eingefordert wurde - Risiken wie Data Leakage inklusive. Die berüchtigte Schatten-IT ist also gerade dabei, zurückzukommen - wenn die Unternehmen nicht reagieren. Experten und Branchenvertreter, die an der COMPUTERWOCHE-Diskussionsrunde zum Thema "Applied AI" teilnahmen, fordern auch deswegen von Entscheidern, mehr Gas zu geben bei der Entwicklung eigener Szenarien und der Definition von Anwendungsbereichen.
"Gerade gibt es viele Fragen, wie man ChatGPT und Co. in Business-Prozesse übersetzen kann", stellt Michael Niederée von KPMG fest. "Wenn wir das nicht 'offiziell' tun, fangen die Mitarbeiter ganz von selbst an, ihren Job zu optimieren. Das ist eine Welle, die schon in Gang gesetzt wurde und sie ist gewaltig."
"Applied AI" ist also das Gebot der Stunde. "In den letzten sechs Monaten ist das Interesse rapide gestiegen", beobachtet Michael Burkhardt von Omdena. Gleichzeitig habe aber auch die Zahl der potenziellen Baustellen zugenommen, je erfolgreicher generative KI wurde. Die Diskussion zeigt, dass das mit dem "applied" aber gar nicht so einfach ist. Gespräche über konkrete Einsatzszenarien wechseln auch dadurch schnell wieder auf das Terrain der Ethik, weil eben noch einiges zu klären ist.
Andreas Gödde vom Analytics-Anbieter SAS sieht auf der Implementierungsseite zwar Handlungsbedarf, warnt aber auch vor unreflektierten Schnellschüssen. "Eine verantwortliche Implementierung von KI ist Pflicht. Es ist wichtig, einen ethischen und regulatorischen Rahmen zu setzen, von dem ausgehend ich unter anderem anhand von Risikoeinschätzungen ableite, für welche Anwendungsfälle eine KI geeignet ist und wie ein entsprechendes Monitoring beziehungsweise Risikomanagement umgesetzt wird. Im Zweifelsfall muss ich immer erklären können, warum eine automatisierte Entscheidung wie, warum und aufgrund welcher Daten getroffen wurde."
- Michael Burkhardt, Omdena
"Bei Innovationsprojekten ist es wichtig, ein diverses Team zu haben, um mögliche Bias schon im Vorfeld zu eliminieren. Neben den Fachexperten sollten idealerweise auch Linguisten, Social Scientists und andere Disziplinen mit an Bord sein. <br /><br /> Während wir in Deutschland in ein paar Pilotprojekten unterwegs sind, haben wir in den USA über 80. Dort herrscht viel mehr der Ansatz, erstmal mit einem Projekt zu beginnen, Erfahrungen aufzubauen und auch aus Misserfolgen zu lernen. Dieses Wissen hilft uns auch dabei, das deutsche Ökosystem besser zu verstehen." - Jens Duhme, ATOS
"KI ist vieles, aber nicht intelligent. Das gilt es zu kommunizieren und immer wieder auf die Grenzen hinzuweisen. Nur so können wir ein gesundes Verständnis der Technologie in den Köpfen verankern. <br /><br /> Gefahren gibt es genug, aber dass die Maschinen uns irgendwann unterjochen, gehört nicht dazu. Es dauert auch in anderen Bereichen Jahre, bis vernünftige Use Cases entstehen. So ähnlich wird das auch bei künstlicher Intelligenz ablaufen. <br /><br /> In der Cloud liegt die Verantwortung zum Beispiel primär beim Anbieter, den ich im Zweifelsfall haftbar machen kann. Das ist für Unternehmen ein großer Vorteil. Wenn so ein rechtlicher Rahmen auch bei der KI gelingt, dann senkt das viele Hürden für Anwender und schafft die Basis für mehr Ethik und Verantwortung auf Herstellerseite." - Andreas Gödde, SAS
"Nach ChatGPT hat sich die Diskussion definitiv verändert. Unternehmen diskutieren jetzt auch intern intensiver, nach dem Motto “wir müssen jetzt was machen”. Bei unseren Kunden nehmen wir eine deutlich erhöhte Kreativität zu möglichen Einsatzszenarien wahr. <br /><br /> Klar gibt es Risiken, aber die Chancen überwiegen aus meiner Sicht. Wir haben jetzt als Gesellschaft die Aufgabe, bereits im Bildungssystem die richtigen Weichen zu stellen, um die Chancen der Digitalisierung, die sich in wichtigen Bereichen des öffentlichen Lebens und in den Unternehmen bieten, auch tatsächlich auf die Straße zu bringen. <br /><br /> In Kombination mit dem Menschen sehen wir jetzt schon sinnvolle Anwendungsbereiche in den Unternehmen. Wir bezeichnen das als „augmented AI“. Das alles ist aber noch weit weg von einer “generellen” KI, die aktuell noch weit in der Zukunft liegt und die wir vielleicht auch nie erleben werden. <br /><br /> Viele Use Cases kann ich schon heute mit KI-Werkzeugen umsetzen. Teilweise werden sie – beispielsweise im Bereich Betrugsbekämpfung – vom Regulator sogar gefordert. Es muss ja nicht gleich die Kreditvergabe mit sensiblen personenbezogenen Daten sein." - Harald Huber, USU
"Die Diskussion ist heute eine andere, weil es jetzt konkrete Vorstellungen und Assoziationen in den Köpfen gibt. Jetzt geht es darum, zu schauen, welche KPI man aktiv definieren und gestalten kann. Die Kernfrage sollte immer die nach dem individuellen Nutzen sein – und dann sieht man, dass es gar nicht so einfach ist, mit der Übersetzung in den Alltag. Beim autonomen Fahren standen wir gefühlt auch schon kurz vor dem Durchbruch, doch heute ist die Revolution auf der Straße wieder in weite Ferne gerückt." - Michael Niederée, KPMG
"Es bestehen diverse ungelöste Fragestellungen: Wer hat die Urheberrechte eines Textes? Wie gelingt eine ethisch einwandfreie Umsetzung? Welche sonstigen Risiken muss man managen? Mein Vorschlag wäre, insbesondere zu Beginn eine gute Strategie als Fundament zu entwickeln, die einem anschließend erlaubt, auf die richtigen Dinge zu fokussieren. <br /><br /> Die eigentliche Revolution findet doch jetzt im Fachbereich statt. Komplexe Tätigkeiten, die bis dato viele Ressourcen gebunden haben und komplex bis unmöglich zu lösen in der Softwareentwicklung waren, können jetzt im Fachbereich durch Prompt Engineering von „Fachentwicklern“ agil und iterativ umgesetzt werden." - Ricardo Ullbrich, SS&C Blue Prism
"Am schnellsten schaffe ich Veränderung, wenn ich den branchenspezifischen Nutzen kommuniziere. Unternehmen müssen sich aktiv Gedanken machen, welche Bereiche ihres Geschäfts sie automatisieren wollen und können. Man vergleiche nur mal einen Konzern wie Amazon mit einer Versicherung: Da liegen Welten dazwischen und entsprechend unterschiedlich sind auch die Use Cases.<br /><br /> Innovationsschübe können oft auch eine gesellschaftliche Chance sein, das hat auch die Coronakrise gezeigt. Ich würde soweit gehen und sagen, dass uns die Pandemie eine bessere Arbeitswelt gebracht hat.<br /><br /> Der Mensch will nicht ausschließlich mit Bots kommunizieren, sondern auch einen gewissen Grad an Small Talk und Abschweifung in einem Gespräch haben. Das ist ein ganz entscheidender Punkt bei der Gestaltung von Services und Prozessen. <br /><br /> Einen Prozess zu optimieren ist relativ einfach. Aber darüber hinaus die weiteren Möglichkeiten zu ergründen und die “höchste Stufe” zu erreichen, das können die wenigsten." - Christoph Windheuser, Databricks
"Das Thema KI wird sowohl die Produktebene, als auch die Erwartung auf Kundenseite verändern. Doch die daraus abgeleiteten Fragestellungen gehen weit über die Technologie und deren Anwendung hinaus. Das hat gesellschaftlich-transformativen Charakter und tangiert die Substanz der gesamten Gesellschaft, zuerst vor allem über den Arbeitsmarkt. <br /><br /> Es ist eine grundsätzliche Frage: Werden wir künftig weniger arbeiten oder wird der Output höher sein? Dabei gilt auch: Wir dürfen Erfahrungen der Vergangenheit nicht in die Zukunft projizieren. Gerade haben wir es mit einem exponenziellen Wachstum zu tun, das gab es auch in der Automatisierungswelle der 1980er Jahre nicht. Die Situation ist also völlig neu."
Warten auf Regulierung
Die Europäische Union könnte die erste Weltregion sein, in der dieser Rahmen gesetzt würde. Der nach 18-monatiger Debatte vorgelegte Entwurf einer europäischen KI-Verordnung hat ähnlichen Pioniercharakter wie die DSGVO. Im Kern soll das Risiko der jeweiligen Technologie künftig der Maßstab dafür sein, welchen Pflichten die Entwickler unterliegen. Die Hersteller sollen verpflichtet werden, dieses Risiko zu bewerten - die Stichhaltigkeit der Argumentation wird von einer unabhängigen Behörde geprüft. Auch die Auswahl der Datensätze soll geregelt werden, was insbesondere bei heiklen Themen relevant ist - zum Beispiel bei der Vergabe eines Kredits.
Die Diskussion zeigt aber auch, dass Regulierung nur funktioniert, wenn die Wissenschaft einbezogen wird und die technologischen Eigenschaften von KI berücksicht. Ein gutes Beispiel ist die Forderung, dass Sprachmodelle wie ChatGPT die Quellen ihrer Entscheidungsfindung offenlegen sollen. Die Prozesse einer generativen KI wie ChatGPT funktionieren aber nicht wirklich deterministisch, sondern bauen auf sich selbst und auf Wahrscheinlichkeiten auf. Ein neuronales Netz oder ein Sprachmodell kann aus diesem Grund auch nicht "plagiieren", weil das Ergebnis zwar auf bestehendem basiert, aber immer auch eine "Neuschöpfung" ist. Das gegenwärtige Urheberrecht ist also gar nicht dafür geeignet, KI angemessen zu erfassen.
Viele Fragen also, deren Beantwortung Zeit braucht - und brauchen darf, auch wenn viele Debatten gerade mit der These geführt werden, dass die EU "einmal wieder" abgehängt wird und im Vergleich zu anderen Kontinenten gerade wichtige Innovationsschritte verschläft.
Informationen zu den Partner-Paketen der Studie 'Applied AI 2023'
Läuft die Zeit wirklich davon?
Die Diskussion zeigt auch: Europa sollte sich vom Pauschalvorwurf des "Bedenkenträgertums" nicht treiben lassen, sondern das Prinzip "Gründlichkeit vor Schnelligkeit" auch auf die KI anwenden. Schließlich partizipieren Unternehmen aus der EU auch jetzt schon an der Entwicklung, wie Erfolgsbeispiele wie DeepL zeigen. Darüber hinaus wirken die Warnungen vor einem "digitalen Protektionismus" unnötig überhöht. Deutsche Unternehmen können auch noch in ein paar Monaten auf Know-How von OpenAI und Co. zurückgreifen und ihre Lösungen darauf aufbauen. "Ich weiß nicht, ob man bei solchen Technologien noch von internationaler Abgehängtheit sprechen kann", stellt auch Christoph Windheuser von Databricks fest und ergänzt: "Solche Aussagen ergeben vielleicht gar keinen Sinn mehr in einer Welt der Hochverfügbarkeit."
Andreas Gödde zieht eine Parallele zum europäischen Exportschlager DSGVO: "Mehr Regulierung und Vorsicht wird auch ein Wettbewerbsvorteil für Europa sein. Wir können der Kontinent der 'guten' KI werden, auch wenn das vermeintlich länger dauert und mühsamer ist. 'Einfach mal machen' ohne einen ethischen oder regulatorischen Rahmen im Unternehmen ist vor allem bei kritischen Prozessen der falsche Weg."
Studie "Applied AI 2023": Sie können sich noch beteiligen! |
Zum Thema Applied AI führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Sie Partner werden, helfen Ihnen Regina Hermann (regina.hermann@foundryco.com, Telefon: 089 36086 161) und Manuela Rädler (manuela.raedler@foundryco.com, Telefon: 089 36086 271) gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). |
Arbeitsmarktrisiko oder -chance?
Abseits der rechtlichen Voraussetzungen ist die gegenwärtige "Implementierungslücke" auch im Know-How bedingt. Sie ist durch ChatGPT sichtbarer geworden, war aber schon vorher existent. Aus Sicht von Ricardo Ullbrich von SS&C BluePrism liegt das vor allem am Fachkräftemangel: "Die Möglichkeiten sind nicht erst seit ChatGPT gigantisch, aber es haben immer auch die Köpfe gefehlt, um das technologische Potenzial in großem Stil auszuschöpfen. Das ist auch jetzt der limitierende Faktor."
KI wird zwar oft als Bedrohung von Arbeitsplätzen wahrgenommen, kurzfristig könne sie aber sogar für einen Nachfrageschub nach KI-Experten sorgen. Es ist dabei noch keineswegs entschieden, wohin die Richtung insgesamt gehen wird, weil die Erfahrungen fehlen. Prognosen reichen von flächendeckendem Jobsterben bis zu einer weiteren Akademisierung klassischer Berufe. Der Grad der Disruption - auch der gesellschaftlichen - wird dabei sehr von der Geschwindigkeit abhängen, in der konkrete Use Cases entstehen.
Zur Versachlichung der Debatte empfiehlt Jens Duhme von Atos einen Blick in die jüngere Vergangenheit: "Auch die Automatisierungswelle der 1980er Jahre hat damals viele Ängste vor einem Jobverlust erzeugt. Die Katastrophen sind aber auch dort ausgeblieben. Natürlich werden einfachere Jobs verschwinden, aber auch neue entstehen. Wichtig ist vor allem, dass die Geschwindigkeit uns als Gesellschaft nicht überfordert. "
Auch Harald Huber von USU warnt vor Fatalismus: "Die Welt wird sich verändern, aber von Katastrophenszenarien sind wir weit entfernt." Aus seiner Sicht würden selbst klassische redaktionelle Tätigkeiten nicht verschwinden, sondern sich eher verändern. Dort wo früher reine Schreibarbeit erbracht wurde, steht künftig die Wissensaggregation im Mittelpunkt.
Der aktuelle Hype um künstliche Intelligenz ist irgendwie anders, irgendwie substanzieller als Krypto und Metaverse - aber trotzdem immer noch ein Hype. In einer Phase, in der Euphorie und Warnung teilweise von denselben Leuten und Unternehmen kommen (kurzweilig aufgezeigt im Vortrag von Jürgen Geuter auf der diesjährigen re:publica-Konferenz - siehe untenstehendes Video), sind Innehalten und die nüchterne Bestandsaufnahme nicht die schlechtesten Vorgehensweisen. Oder, wie Harald Huber im Rahmen der Expertenrunde abschließend konstatiert: "Auch bei KI muss gelten 'Wenn du etwas tust, bedenke das Ende'."
Informationen zu den Partner-Paketen der Studie 'Applied AI 2023'