Welches emotionale Bild hat eigentlich die aktuelle CIO-Generation im Kopf, wenn sie an Künstliche Intelligenz denkt? Ist es noch von Stanley Kubricks Computer "HAL 9000" geprägt, der im Sci-Fi-Klassiker "2001: Odyssee im Weltraum" mit seinem lakonisch-ikonischen Satz "Das kann ich leider nicht tun, Dave" einem Menschen den Wiedereinlass in das Raumschiff verweigert, weil er zu dem logischen Schluss gekommen ist, dass dessen Weiterleben den Erfolg seiner Mission gefährden könnte? Ist es ein streng rationales Bild, das der "klassischen" KI-Forschung folgt, den Turing-Test als Maßstab nimmt und mit dem Bewusstsein einhergeht, dass die Fragestellungen sich in den letzten 70 Jahren im Grunde nicht geändert haben?
Oder dominieren doch eher die aktuellen Debatten in den Köpfen der Entscheider, die die alten Fragen mit den neuen technischen Möglichkeiten des Silicon Valley zusammenbringen und sich irgendwo zwischen transhumanistischer Revolution und potenzieller Gefahr für das Fortbestehen der Menschheit bewegen?
Fakt ist: Das Thema Künstliche Intelligenz weckt gleichermaßen Ängste wie utopische Erwartungen und hat nach wie vor ein gigantisches Polarisierungspotenzial. Die Diskussion darum wird nicht von heute auf morgen verschwinden, sondern in ihrer Schärfe noch zunehmen - zum Beispiel, wenn die ersten juristischen Konsequenzen von serienreifen selbstfahrenden Autos sichtbar werden und sich die Forderungen mehren, Maschinen mehr Autonomie zuzugestehen. Die Technologie wird alltagsfähiger und sorgt damit für einen gewissen Positionierungsdruck bei den Unternehmen, entsprechende Lösungen auch im produktiven Betrieb einzusetzen.
- Saskia Pauly, Accenture
Natürlich ziehen künstliche Intelligenzen – genau wie Menschen – auch einmal Fehlschlüsse. Menschliche Verhaltensweisen sind nie frei von Bias und wir sind es, die die KI mit Daten speisen. KI lernt ausschließlich auf Basis dieser Datengrundlage. Deshalb lassen sich Fehlschlüsse von künstlicher Intelligenz häufig sogar besser identifizieren – und mithilfe entsprechender Kontrollmechanismen gut minimieren. - Christian Klein, NTT Data
Bei vielen Unternehmen herrscht ein offensichtlicher Bedarf, trotzdem verläuft die Einführung von KI vielerorts immer noch zu zögerlich. Es ist daher wichtig, den Nutzen entlang konkreter Business Cases früh aufzuzeigen. In der Praxis sind viele Entscheider oft überrascht, wenn sie sehen, was tatsächlich möglich ist. - Martin Zeitler, Palo Alto Networks
Oft wird der verwendete Algorithmus als das „Big Thing“ verkauft, dabei sind es eigentlich die Daten, deren Bewertung und entsprechende Rückkopplungsschleifen, die für die Anwendung entscheidend sind. Schließlich entsteht künstliche Intelligenz nicht einfach aus dem luftleeren Raum heraus: Damit ein Fahrzeug autonom fährt, müssen unzählige Sensoren erst einmal dafür sorgen, dass ausreichend Daten zur Bewertung zur Verfügung stehen. - Kay Knoche, Pegasystems
Es herrscht in Deutschland immer noch ein zu selektiver Blick auf die Probleme einer Technologie. Als Automobilbauer-Nation sind wir immer dem Motto „Perfect is better than done“ gefolgt. Diese Philosophie passt aber nicht mehr in eine KI-Umgebung, in der der Fehler zwangsläufig zum System gehört. - Markus Grau, Pure Storage
Es werden immer wieder die gleichen Themen besprochen: selbstfahrende Autos, humanoide Roboter und verlorene Jobs. Doch das ist nur ein ganz kleiner Teil der Thematik. Machine-Learning-Technologien stecken heute jedoch schon so gut wie überall drin – da genügt meist schon ein Blick in die Foto-App auf dem Smartphone. - Matthias Schmauch, Vectra
In vielen Branchen – zum Beispiel im Krankenhaussektor – werden Projekte oft nur in Angriff genommen, wenn es nicht mehr anders geht. Es ist schon paradox: Aus der Angst heraus, in einem Audit durchzufallen, werden Innovationen vermieden und damit teilweise Millionenschäden in Kauf genommen.
Weniger Science-Fiction, mehr Realismus
Die leidenschaftliche Debatte ist dabei nicht immer hilfreich, wie die Experten des IDG-Roundtables "KI und Machine Learning" bestätigen. Zu verzerrt ist demnach häufig das Bild, das in den Unternehmen auf Entscheiderebene vorherrscht: "Etwas weniger Science-Fiction täte der Debatte sicherlich gut", sagt Martin Zeitler von Palo Alto Networks: "In der IT-Security sind datengestützte Verfahren und mathematische Methoden zum Beispiel gar nichts Neues. Was sich jedoch drastisch geändert hat, sind die Ressourcen, über die wir heute verfügen: Durch den Einsatz von Cloud-Technologien haben wir nun die Möglichkeit, gigantische Datenmengen sinnvoll und zeitnah zu verarbeiten und zu analysieren."
Für den Security-Experten liegt die Kernaufgabe von Beratern und Technologiedienstleistern darin, die Möglichkeiten, aber auch die Grenzen klar aufzuzeigen, um Bedenken, die auf unrealistischen Erwartungen beruhen, gezielt abzubauen. Wenn die Thematik nicht verständlich und handhabbar erläutert wird, blieben Potenziale ungenutzt. Oder kurz gesagt: Wer immer gleich an Stanley Kubrick denkt, hat automatisch gewisse Hemmungen, wenn es zum Beispiel um die Einführung von einer automatisierten Support-Lösung geht.
"Es ist wichtig, beim Thema KI keine überzogenen Erwartungen zu wecken. Auch reine Statistik ist, richtig angewendet, ein mächtiges Werkzeug. Begriffe wie AI und Künstliche Intelligenz dienen hier vor allem der Abstraktion und helfen, den Dingen eine Heimat zu geben", betont Zeitler.
Studie "Machine Learning 2021": Sie können sich noch beteiligen! |
Zum Thema Machine Learning führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Entscheidern durch. Haben Sie Fragen zu dieser Studie oder wollen Sie Partner werden, helfen Ihnen Regina Hermann (rhermann@idgbusiness.de, Telefon: 089 36086 384), René Krießan (rkriessan@idg.de, Telefon: 089 36086 322) und Bastian Wehner (bwehner@idg.de, Telefon: 089 36086 169) gerne weiter. Informationen zur der Studie Machine Learning finden Sie auch hier zum Download (PDF). |
Intelligenz ist nicht gleich Intelligenz
Überhaupt ist es mit den Erwartungen so eine Sache. Der Begriff "Künstliche Intelligenz" erweist sich in der Praxis nicht selten als Hypothek, weil er auch falsche Erwartungen wecken kann. Tatsächlich ist jede halbwegs alltagstaugliche KI nämlich mitnichten "intelligent", zumindest wenn man als Vergleichsmaßstab eine menschliche Vorstellung von Intelligenz zugrunde legt: Selbstlernende Algorithmen oder neuronale Netze sind extrem gut darin, menschliches Verhalten zu imitieren oder Gelerntes fortzuschreiben, am Ende bleibt aber auch die modernste KI trotz aller Komplexität eine Maschine - ohne Intentionen, personale Merkmale oder das berühmte "Bewusstsein".
Vertreter eines digitalen Humanismus wie der Philosoph Julian Nida-Rümelin sehen es sogar als mathematisch bewiesen an, dass sich menschliches Denken niemals in einer Maschine abbilden lassen wird und stützen sich dabei auf frühe Vertreter der KI-Theorie wie die Mathematiker Kurt Gödel und Alonzo Church: Da menschliches Verhalten grundsätzlich intentional sei, also mit einer bestimmten Absicht versehen, könne es unmöglich mit Algorithmen abgebildet werden, während algorithmische Prozesse den Grundpfeiler jeder Software bilden.
Dieser Unterschied zwischen "menschlicher" und Künstlicher Intelligenz ist wichtig, wenn es um die konkreten Einsatzszenarien geht, wie Saskia Pauly von Accenture anmerkt: "Vielleicht ist es Zeit für einen grundlegenden Perspektivwechsel: Durch die weitreichenden technischen Möglichkeiten entsteht oft die Erwartungshaltung, dass KI und Machine Learning irgendwelche Wunder vollbringen können und den Menschen ersetzen. Doch darum geht es nicht: Eine KI ist und bleibt eine Maschine, die von Menschen angelernt wird, und bestimmte einfache Tätigkeiten besser oder auch einfach nur schneller erledigt."
Informationen zu den Partner-Paketen der Studie Machine Learning
Große Potenziale im Kundensupport
Nach dieser Definition ist auch die komplexeste Maschine eine "dumme" Maschine. Zu den "einfachen" Tätigkeiten einer KI zählen insbesondere die Verarbeitung und Analyse von riesigen Datenmengen und deren automatisierte Weitergabe, wie sie etwa im Kundensupport wichtig sind. Durch den Einsatz von KI und Machine Learning lasse sich die Customer Experience deutlich verbessern beziehungsweise effizienter gestalten. Als Beispiel fällt im Rahmen des IDG-Round-Tables immer wieder der Begriff semantische Analyse, also die automatisierte Erkennung bestimmter Sprachmuster und die darauf aufbauende automatisierte Verarbeitung von Anfragen. Christian Klein von NTT sieht darin insbesondere in der Corona-Pandemie ein großes Potenzial:
"Durch semantische Analyse versteht der Computer uns Menschen in Sekundenbruchteilen. Gerade in Zeiten von Homeoffice und geschlossenen Büros beziehungsweise Geschäften ist der Support eine große Herausforderung. Mangels direkter Kontaktmöglichkeiten weichen Kunden auf das Telefon und E-Mail aus. Dadurch entsteht bei vielen Unternehmen eine gigantische Aufgabenlast in Form abertausender unbearbeiteter E-Mails. Eine Maschine, die die Vorselektion in Form einer automatisierten Anliegenerkennung übernimmt, kann hier eine spürbare Erleichterung von circa 85 Prozent bewirken."
Konkreten Nutzen veranschaulichen
Die Experten des IDG-Roundtables sehen vor allem durch die Möglichkeiten der Cloud und durch vollvernetzte Umgebungen ein Potenzial für die Technologie, das dringend genutzt werden sollte, um langfristig im Wettbewerb mit internationalen Wettbewerbern zu bestehen. Dafür ist es wichtig, aktiv im Unternehmen für die Technologie zu werben, ohne unrealistische Erwartungen zu wecken, wie Matthias Schmauch von Vectra AI bemerkt: "Die Erwartungshaltung an KI ist, sie könnte etwas besser als der Mensch. Dabei kann KI manche Anwendungsfälle höchstens genauso gut abdecken, aber schneller und ohne Ermüdung. Hierin liegt der wesentliche Vorteil und wir stehen als Branche in der Verantwortung, darüber aufzuklären und konkrete Use Cases zu generieren."
Die Antwort auf die Frage, wie sich in den deutschen Unternehmen mittelfristig eine intensivere Nutzung von Künstlicher Intelligenz erreichen lasse, ist dabei eine altbekannte: weniger "German Angst". Denn in einem Bereich wie der KI, wo es auf Wahrscheinlichkeiten und nicht auf Gewissheiten ankommt und wo selbstlernende Algorithmen umso besser funktionieren, je länger sie im Einsatz sind, muss auch das traditionelle Denken auf den Prüfstand, stellt der IT-Berater Kay Knoche fest: "Es herrscht in Deutschland immer noch ein zu selektiver Blick auf die Probleme einer Technologie. Als Automobilbauer-Nation sind wir immer dem Motto 'Perfect is better than done' gefolgt. Diese Philosophie passt aber nicht mehr in eine KI-Umgebung, in der der Fehler zwangsläufig zum System gehört."
- 1. Datenmangel
Datenprobleme gehören zu den häufigsten Gründen für das Scheitern von Artificial-Intelligence-Initiativen. Das belegt auch eine Studie des Beratungsunternehmens McKinsey, die zu dem Schluss kommt, dass die beiden größten Herausforderungen für den KI-Erfolg mit Daten in Zusammenhang stehen. <br /><br /> Demnach haben viele Unternehmen einerseits Probleme damit, ihre Daten richtig einzuordnen, um die Machine-Learning-Algorithmen korrekt programmieren zu können. Wenn Daten nicht richtig kategorisiert werden, müssen sie manuell richtig klassifiziert werden – was oft zu zeitlichen Engpässen und einer erhöhten Fehlerrate führt. Andererseits stehen viele Unternehmen vor dem Problem, nicht die richtigen Daten für das anvisierte KI-Projekt zur Verfügung haben. - 2. Training, das ins Leere läuft
Laut einer Untersuchung von PricewaterhouseCoopers verfügt mehr als die Hälfte der befragten Unternehmen über keinen formalen Prozess für das vorurteilsfreie Training von KI-Systemen. Schlimmer noch: Nur 25 Prozent der befragten Unternehmen würden demnach die ethischen Implikationen eines Artificial-Intelligence-Systems vor der Implementierung priorisieren. <br /><br /> Unternehmen steht eine Vielzahl von Bilddaten-Sets zu Trainingszwecken zur Verfügung – sowohl auf kostenloser als auch auf kommerzieller Basis. Dabei sollten Firmen allerdings unbedingt darauf achten, dass ein solches Datenset auch die für ihre Zwecke relevanten Daten enthält. - 3. Problemfall Datenintegration
In manchen Fällen ist nicht Datenmangel die wesentliche Hürde für den Einsatz von Künstlicher Intelligenz, sondern das genaue Gegenteil: zu viele Daten – an zu vielen Orten. <br /><br /> Solche Datenintegrations-Fauxpas können sich nachhaltig negativ auswirken. Dabei geht es nicht in erster Linie um technische Hürden, sondern beispielsweise darum, Compliance- und Datenschutzanforderungen gerecht zu werden. - 4. Datenunterschiede
Wenn Unternehmen für das Training von Artificial-Intelligence-Systemen nicht auf aktive, transaktionale sondern auf historische Daten zurückgreifen, entstehen Probleme. Denn ein System, das auf Grundlage eines historischen Snapshots trainiert wurde, wird im Zusammenspiel mit Echzeit-Daten nicht besonders zuverlässig performen. <br /><br /> Nach Ansicht von Andreas Braun, Managing Director und Partner bei der Boston Consulting Group, können Sie diese Problemstellung vermeiden, indem Sie Ihre Data Scientists aus dem Silo holen: Insbesondere wenn es um KI-Modelle geht, die mit Live-Daten arbeiten, bietet sich eine direkte Integration in die Produktionsumgebung an – diese geht im Regelfall auch wesentlich schneller vonstatten. - 5. Unstrukturierte Daten
Laut einer aktuellen Umfrage von Deloitte verlassen sich 62 Prozent der Unternehmen immer noch auf Spreadsheets – nur 18 Prozent profitieren bereits von unstrukturierten Daten wie Produktbilder, Audiodateien von Kunden oder Social-Media-Kommentare. Dazu kommt, dass viele der historischen Datensätze in Unternehmen den für den KI-Einsatz nötigen Kontext vermissen lassen. <br /><br /> Dabei kommt das Beratungsunternehmen auch zu der Erkenntnis, dass Unternehmen, die unstrukturierte Daten nutzen, ihre Geschäftsziele im Schnitt um 24 Prozent übertreffen konnten. - 6. Kulturelle Mangelerscheinungen
Daten außen vorgelassen, sind es vor allem organisatorische Herausforderungen, die dem Erfolg mit Künstlicher Intelligenz entgegenstehen. Die Mitarbeiter aus den Fachbereichen müssen direkt mit den Kollegen aus der Technik zusammenarbeiten und der übergeordnete Kontext sollte dabei stets im Fokus stehen.
Einsetzender kultureller Wandel
Am Ende zeigen die Experten des IDG-Roundtables einen klaren Weg für mehr KI in deutschen Unternehmen auf. Dieser lautet wie so oft in der Softwareentwicklung: Bedenken ablegen und mit konkreten Projekten Tatsachen schaffen. Der Fachkräftemangel und ein steigender Effizienzdruck, mehr Daten besser zu verwalten, sorgen dafür, dass am Einsatz von KI- und Machine-Learning-Technologien kein Weg mehr vorbeiführt. Dieses Bewusstsein macht sich langsam auch auf Entscheiderebene bemerkbar, wie Markus Grau von Pure Storage abschließend feststellt: "Wir beobachten einen langsam einsetzenden kulturellen Wandel. Vor allem in der Softwareentwicklung etablieren sich allmählich eine neue Fehlerkultur und ein iteratives Vorgehen. Das ist auch absolut notwendig, da sich eine KI nur im laufenden Betrieb bewähren kann und im Praxiseinsatz immer besser wird."
Und so lieferte der IDG-Roundtable vor allem eine wichtige Erkenntnis: KI ist eben nicht "auch nur ein Mensch". Und hierin liegt auch das wichtigste Argument für ihren Einsatz. (mb)
Informationen zu den Partner-Paketen der Studie Machine Learning