Im Jahr 2017 erreichte der Hype um Künstliche Intelligenz (KI) seinen Zenit. Schließlich setzen CIOs, Beraterunternehmen und die Wissenschaft inzwischen auf die Technologie, um so gut wie jeden Business- und IT-Prozess zu automatisieren. Nur die Medien stürzen sich - wie man sie kennt - ausschließlich auf die negativen Aspekte von KI. Zumindest ist Thomas Davenport, Professor für kognitive Technologien am Babson College, dieser Überzeugung: "In den Medien gab es einen Hype von besonderem Ausmaß. Was nun passiert, ist, dass Journalisten versuchen, diesen Hype künstlich in die Länge zu ziehen, indem sie sich auf mögliche negative Folgen stürzen."
Damit mag Davenport stellenweise sogar Recht haben. Dennoch: die Bedenken in Bezug auf die Künstliche Intelligenz sind alles andere als neu und halten sich sehr hartnäckig - egal ob es dabei nun um rassistische Chatbots oder automatisierte Drohnen geht, die Amok fliegen. Nur knapp eine Woche, nachdem das MIT Technology Review eine Story mit der Überschrift "Wer ist verantwortlich, wenn KI tötet?" publizierte, wurde eine Frau in Arizona von einem autonomen Auto in den Diensten von Uber getötet - einschneidende Konsequenzen durch KI-getriebene Technologie sind also durchaus real.
Wir lassen die sechs Bedenken-lastigsten Hemmnisse für die Adoption der Künstlichen Intelligenz Revue passieren - und haben nützliche Tipps für IT-Entscheider auf Lager, die es gar nicht erwarten können, erste KI-Testsessions anzuleiern.
Die 6 größten KI-Bedenken
Rüpel-Gene: Wie Microsofts Chatbot-Desaster auf beeindruckende Weise gezeigt hat, kann eine Unterhaltung mit automatisierten Messaging-Systemen nicht nur in Nonsens, sondern auch in Rüpelhaftigkeit oder gar Beleidigungsarien ausarten. Entscheider sollten sich deshalb ganz genau überlegen, welche Technologien sie auf welche Art und Weise zum Einsatz bringen. Es braucht schließlich nur einen hassgetränkten "Wutausbruch" des Chatbots, um das Image einer ganzen Marke zum Einsturz zu bringen.
Einordnungs-Defizit: Ironischerweise hat Künstliche Intelligenz - obwohl von Menschen entwickelt - relativ wenig mit seinen Erschaffern zu tun. Das sagt zum Beispiel Stanford Professorin und Google-KI-Forscherin Fei-Fei Li. In einer Kolumne für die New York Times beschreibt die Wissenschaftlerin, dass die visuelle Wahrnehmung von Menschen höchst kontextual, diejenige von KI jedoch ziemlich eindimensional ist. Das bringt Li zu der Überzeugung, dass Programmierer für Künstliche Intelligenzen künftig enger mit Experten für diese Definitionsbereiche zusammenarbeiten müssen, um die Wahrnehmungs-Lücke zwischen Mensch und Künstlicher Intelligenz zu schließen.
Black-Box-Rätsel: Viele Unternehmen wollen Artificial-Intelligence-Lösungen einsetzen - auch für Aktivitäten, die unter Umständen zu einem strategischen Vorteil führen. Dabei müssen Unternehmen in Branchen wie dem Finanzsektor darauf achten, welche Auswirkungen die Einbettung von KI in ihre Systeme haben kann. Es mag beispielsweise naheliegen, dass Hausbesitzer, die ihren Stromverbrauch mit Produkten von Nest managen, mehr Geld für die Bedienung ihrer Hypothek übrig haben.
Eine solche Art der Qualifikation aber in eine KI-Lösung zu gießen, dürfte schwierig werden, wie Bruce Lee, Head of Operations & Technology beim US-Finanzdienstleister Fannie Mae weiß: "Künstliche Intelligenz etwa bei Entscheidungen über die Vergabe von Krediten einzusetzen, liegt zwar nahe - aber in diesem Bereich gilt es zuerst eine ganze Reihe regulatorischer Hürden aus dem Weg zu räumen. So gut wie alles, was wir in diesem Bereich auf den Weg bringen, muss gewissenhaft getestet werden, um sicherzustellen, dass nicht irgendeine Form von Vorurteilen oder Befangenheit in unserer Infrastruktur Einzug hält. Vor allem aber muss die KI erklärbar sein."
Wenn das Verständnis dafür fehlt, wie eine AI-Software Muster erkennt und Ergebnisse analysiert, werden sich Unternehmen in deren Business Regulationen eine wesentliche Rolle spielen schnell fragen, ob sie den Maschinen wirklich trauen können, wie Dan Farris von der Anwaltskanzlei Fox Rothschild erklärt: "Kontext, Ethik und Datenqualität wirken sich auf den Wert und die Zuverlässigkeit von Künstlicher Intelligenz aus - insbesondere in stark regulierten Branchen. Die Ausrollung von KI-Lösungen in solchen Branchen kann zu Compliance-Problemen führen."
Sozioökonomische Irrungen: Sogar virtuelle KI-Assistenzen sind mit Befangenheit belastet. Oder haben Sie sich schon einmal gefragt, warum Technologien wie Alexa, Siri und Cortana ausschließlich weiblich sind? Rob LoCascio, CEO beim Softwarehaus LivePerson, schon: "Warum ordnen wir solche ‚Helfer-Technologien‘ automatisch dem weiblichen Geschlecht zu? Und was sagt das über unsere Erwartungen an Frauen aus? Dass sie die idealen ‚Helfer‘ sind? Dass sie besonders gut für administrative Aufgaben geeignet sind? Oder dass sie einfach gut darin sind Anweisungen zu befolgen?"
Allgegenwärtige Gefahr: Die rasanten Fortschritte auf dem Gebiet der Künstlichen Intelligenz treiben das Risiko, dass sich kriminelle Hacker die Technologie zunutze machen, um Hackerangriffe und Identitätsdiebstahl zu automatisieren oder gar kommerzielle Drohnen per "Hijacking" zu Waffen umfunktionieren. So ist es zumindest in einem 98-seitigen Bericht nachzulesen, den 25 Wissenschaftler der Universitäten Cambridge, Oxford und Yale zu verantworten haben.
"Wir sind uns alle einig, dass für die Künstliche Intelligenz viele positive Anwendungsbeispiele existieren," sagte Miles Brundgage, einer der beteiligten Forscher, gegenüber der Nachrichtenagentur Reuters. "Aber bislang klaffte in der verfügbaren Literatur zum Thema eine Lücke, wenn es um den Missbrauch der Technologie geht." Auch die New York Times griff den Bericht in einem Artikel auf.
Die Versklavungs-Theorie: Tesla- und Space-X-Mastermind Elon Musk warnte bereits davor, dass die Menschheit Gefahr läuft, sich in "abhängige Hauskatzen" superintelligenter Rechner zu verwandeln. Und der israelische Historiker Yuval Noah Harari geht davon aus, dass der Aufstieg der Künstlichen Intelligenz eine gesellschaftliche Klasse "ohne Nutzen" hervorbringen wird ("global useless class"). Eine solche Entwicklung würde die Demokratie gefährden - schließlich können sich Menschen nicht ansatzweise so gut selbst analysieren, wie Maschinen.
Nach dem AI-Hype
Nach Meinung von Thomas Davenport sind diese Bedenken vor allem eines: übertrieben. Schließlich belaste Befangenheit auch schon seit vielen Jahren "normale" Analytics-Projekte: "Ich kenne niemanden, der schon einmal etwas mit Analytics zu tun hatte und behauptet, dass dort Befangenheit keine Rolle spielt."
Davenport, der gerade sein neues Buch ("The AI Advantage: All about big enterprise adoption of AI") veröffentlicht hat, weiß aus erster Hand, dass verschiedene Großkonzerne derzeit auf verantwortungsvolle Art und Weise mit Künstlicher Intelligenz experimentieren: "Die Technologie steckt noch in den Kinderschuhen, aber es gibt bereits sehr viele interessante Anwendungsfälle im Unternehmensumfeld. Die smarten Unternehmen arbeiten einfach weiter an ihren Projekten und versuchen sich so wenig wie möglich von den durch die Medien kommunizierten Vor- und Nachteilen aus der Ruhe bringen zu lassen."
In der Tat scheint der Hype um die Künstliche Intelligenz die IT-Entscheider kalt zu lassen: Laut Gartner wollen mehr als die Hälfte aller CIOs bis zum Jahr 2020 KI-Projekte an den Start bringen. (fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CIO.
- Oliver Bracht, Chief Data Scientist bei Eoda
"In der Frage der Akzeptanz von KI und Machine Learning ist die Varianz unter den deutschen Unternehmen sehr hoch. Einige stehen noch ganz am Anfang, andere sind schon weit vorangeschritten." - Robert Gögele, General Manager bei Avanade Deutschland
"Im Feld KI und Machine Learning können in Deutschland viele neue Jobs entstehen. Dafür brauchen wir aber einen Kulturwandel, in dem wir uns als Gesellschaft und im öffentlich Diskurs deutlich mehr den Chancen widmen, als uns hinter den wohlbekannten und legitimen Risiken zu verstecken." - Stefan Gössel, Partner bei Reply
"Im ersten Schritt geht es um die eigene Effizienz. Der wesentliche Treiber ist es jedoch, die Kundenbedürfnisse in den Mittelpunkt zu stellen, um neues Wachstum zu generieren." - Franz Kögl, Vorstand von Intrafind
"Unsere Kunden haben mit dem Thema AI keine Berührungsängste. Alle gehen das pragmatisch an: Business Case und Anforderungen definieren, dann für den Use Case die beste Kombination aus AI-Verfahren auswählen und die Machbarkeit testen." - Ronny Kroehne, Senior IT Architect bei IBM
"Wir reden immer öfter direkt mit den Fachbereichen. Da ist der Innovationsdruck am Größten." - Katharina Lamsa, Pressesprecherin für die Division Digital Factory bei Siemens
"Die zunehmende Digitalisierung ist ein wesentlicher Treiber für die Entwicklung und die Akzeptanz von KI und Machine Learning bei unseren Kunden. Insbesondere im Maschinenbau sehen wir Ansätze, sich mit diesem Innovationsfeld intensiv zu befassen. Darunter finden sich auch kleinere, sehr innovative Unternehmen, die das Zukunftspotenzial des Themas erkannt haben." - Markus Noga, Leiter Maschinelles Lernen, SAP SE
"Unsere Vision ist das intelligente Unternehmen. Dank maschinellem Lernen und natürlicher Sprachverarbeitung werden Softwaresysteme Mitarbeiter zukünftig in allen Routinetätigkeiten unterstützen und ihnen die Möglichkeit geben, sich auf kreative und strategische Aufgaben zu fokussieren. Wir treiben diese Entwicklung mit intelligenten Applikationen und Services voran und bieten Anwendungsmöglichkeiten für jeden Kenntnisstand." - Klaus-Dieter Schulze, Senior Vice President Digital Business Solutions bei NTT Data Deutschland
"Ich muss immer mit der Business-Frage anfangen, nicht mit der Technologie." - Max Zimmermann, Data Scientist von Lufthansa Industry Solutions
"Man muss die unterschiedlichen Bereiche Künstlicher Intelligenz definitorisch voneinander abgrenzen. Einfache Regressionsverfahren zum Beispiel genießen derzeit hohe Akzeptanz."