Offene Fragen zur KI

Macht KI die Menschen dümmer?

25.07.2019
Von 
Lutz Tilker ist Partner von Eric Salmon & Partners. Er verantwortet die Themen IT, Telekommunikation und High-Tech. Darüber hinaus ist er für das alle Branchen übergreifende Thema Führungskräfte für IT- und Digitalisierungsaufgaben zuständig.
Macht uns KI arbeitslos? Bekommen wir die ethischen Fragen in den Griff? Wird die Menschheit dümmer? Über KI wird viel Widersprüchliches gesagt. Eines aber ist sicher: KI kommt im großen Stil.
  • Unternehmen werden künftig Maschinen einsetzen, die morgen mehr wissen und anders handeln als heute
  • Schon heute delegieren wir Denkaufgaben an Computer. Mit der KI wird sich dieser Trend verstärken
  • Die Wahrscheinlichkeit ist hoch, dass wir Führungsverantwortung und damit auch ethisch-moralische Entscheidungen an Maschinen delegieren

Für Unternehmen bedeutet das zweierlei: Auf der IT-Ebene werden sie KI implementieren müssen, auf der Führungsebene bekommen sie es mit einer veränderten Unternehmenslandschaft zu tun. Menschen zu führen, die mit KI arbeiten, ist eine neue Aufgabe, die wenig mit den traditionellen Führungsstilen und -methoden der letzten Jahrzehnte gemeinsam hat.

KI wirft viele Fragen auf, darunter auch kritische:

  • Wird KI heute bestehende Arbeitsplätze überflüssig machen? - ziemlich sicher.

  • Wird KI ethisch-moralische Entscheidungen für uns treffen? - wahrscheinlich.

  • Werden Arbeitnehmer ihre "Kollegen" von der KI akzeptieren? - kommt drauf an.

Ob die Zusammenarbeit von Mensch und KI harmonisch ausfallen wird, ist noch nicht ausgemacht. Hier ist vor allem gute Führung gefragt.
Ob die Zusammenarbeit von Mensch und KI harmonisch ausfallen wird, ist noch nicht ausgemacht. Hier ist vor allem gute Führung gefragt.
Foto: John Williams RUS - shutterstock.com

Wovon genau reden wir, wenn wir künstliche Intelligenz sagen? Der Begriff Intelligenz suggeriert ein Bewusstsein, das Maschinen bis auf weiteres nicht haben. Wikipedia schlägt zur Definition von KI vor: "Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens und dem Maschinellen Lernen befasst".

Erst das maschinelle Lernen ermöglicht die Informationstiefe, die KI benötigt. Aus Sicht der Unternehmensführung bedeutet das, sie werden künftig Maschinen einsetzen, die morgen mehr "wissen" als heute. In der Folge werden diese Maschinen morgen anders handeln und reagieren als heute. Genau das ist auch das wichtigste Argument für KI: Wenn die Komplexität zunimmt, führt irgendwann kein Weg mehr an lernenden Maschinen vorbei. Für Führungskräfte bedeutet das, sie müssen fähig sein, lernende Maschinen gemeinsam mit Menschen zu führen.

Erste Hürde: Schnittstellen

Industrieroboter sind heute Standard, sie kommen meist fest installiert zum Einsatz, um zu schweißen oder zu schrauben. In der nächsten Entwicklungsstufe werden Roboter hinzukommen, die auch Dienstleistungen mit und am Menschen erbringen können, etwa Haushalts- und Pflegeroboter oder Operations- und Behandlungsroboter. Sie werden die Leistungen von Menschen unterstützen, verbessern, kompensieren oder vollkommen neue Möglichkeiten schaffen.

Auch auf der reinen Softwareebene wird maschinelles Lernen viele Tätigkeiten übernehmen können, die heute noch von Menschen ausgeführt werden. Hier ist das Einsparpotenzial sogar noch größer, weil die Programmierung und das Lernen weniger aufwändig sind als bei mobilen Robotern. Außerdem sind die Stundenlöhne für Buchhalter, Anwälte oder Architekten höher als die für Personal in Haushalt und Pflege.

Sie interessieren sich für Künstliche Intelligenz und maschinelles Lernen? Dann lesen Sie auch:

In der Industrierobotik können die Aktionen und Reaktionen eines Roboters präzise programmiert und die Umgebung so gestaltet werden, dass der Prozess geplant sicher ist. Aber bei autonomen und mobilen Robotern müssen die Schnittstellen zwischen Menschen und KI viel flexibler sein und die Algorithmen auf eine komplexe und nicht vollständig berechenbare - da menschliche - Interaktion ausgelegt werden.

KI muss zum Beispiel im Fall von Servicerobotern auf menschliche Handlungen wie Sprache, Gestik, Mimik etc. flexibel reagieren können und gleichzeitig semantisch programmiert sein, um im jeweiligen Kontext auch interpretieren zu können. Mensch und KI/Roboter müssen sich gegenseitig als Informations- und Interaktionspartner akzeptieren.

Für den Umgang zwischen Manager und KI stellt sich die Frage, ob es einen Unterschied macht, einer leiblichen künstlichen Intelligenz wie zum Beispiel einem Roboter zu begegnen oder mit einer "körperlosen" KI zu interagieren. Bislang ist für die meisten Menschen der körperliche Roboter einfacher zu akzeptieren. Er ist sympathischer als die körperlose Computerstimme oder eine andere Art der körperlosen Kommunikation.

Verdummung durch KI?

Zum menschlichen Verhalten gehört auch die natürliche Effizienz, nur solche Fähigkeiten zu erhalten oder weiterzuentwickeln, die auch benötigt werden. So lagern wir unser Gedächtnis mehr und mehr in Computer, Handys und das Internet aus und delegieren Rechtschreibung an die Textverarbeitung. Mit dem Aufkommen von KI dürfte sich dieses Verhalten noch einmal verstärken.

Insbesondere wenn die KI Managern Entscheidungsprozesse in Sachen Strategie oder Operations abnimmt, könnte das zu Unsicherheit und Entscheidungsschwäche bei den Betroffenen führen. Wird der Mensch durch das Delegieren von Tätigkeiten an die KI bestimmte kognitive, analytische oder manuelle Fähigkeiten verlieren? Kann sein, dass wir diese Betrachtung in ein paar Jahrzehnten als grundlose Paranoia betrachten werden. Aber die Frage, ob wir mit dem Aufkommen von KI Fertigkeiten und Fähigkeiten abgeben und eventuell sogar verlieren werden, die uns eines Tages auf fundamentale Weise fehlen werden, sollte gestellt werden.

Auch unsere soziale Kompetenz könnte durch den Umgang mit KI in Mitleidenschaft gezogen werden. Digitale Sprachassistenten wie Siri oder Alexa reagieren betont zurückhaltend auf menschliche Beschimpfungen und Beleidigungen. Gewöhnen wir uns daran, dass unsere Ausfälle gegenüber der KI folgenlos bleiben, besteht die Gefahr, dass wir uns neue Verhaltensmuster zulegen, die sich auf unser soziales Zusammenleben mit anderen Menschen negativ auswirken werden.

Schließlich wissen wir noch nicht, wie die Aufgabenverteilung zwischen KI und Mensch aussehen wird. Dass Robotik Arbeitsplätze neu schaffen kann, ist bekannt. Allerdings könnte es im Bereich der KI passieren, dass nicht mehr neue Arbeitsplätze mit höheren Qualifikationen entstehen (Upskill-Effekt), sondern die KI dem Menschen nur noch die übrig gebliebenen und damit niederen Tätigkeiten überlässt (Downskill-Effekt).

Welche Führungsaufgaben übernimmt die KI?

KI wird zukünftig Executives im Führungsprozess unterstützen und ihre Aufgaben sogar teilweise übernehmen. Eine aktuelle Studie der IT- und KI-Beratung Avanade aus Seattle zeigt, dass 85 Prozent der Führungskräfte glauben, die Leitung eines Unternehmens impliziere in Zukunft gleichermaßen die Führung von Menschen als auch von Maschinen. Das sei die Voraussetzung für einen erfolgreichen KI-Einsatz im Unternehmen.

KI wird aber nicht nur Objekt der Führung sein, sondern diese auch unterstützen. Damit stellt sich die Frage, ob KI auch selbst Führungsaufgaben übernehmen sollte. Die Technologie zur Bewältigung auch komplexer Entscheidungen steht teilweise schon heute bereit und wird weiterentwickelt. Wollen wir Führungsverantwortung und damit auch ethisch-moralische Entscheidungen an Maschinen delegieren?

Bekannt ist diese Fragestellung schon länger in Zusammenhang mit autonomem Fahren. Ein selbstfahrendes Auto, das in einer gegebenen Verkehrssituation nur die Optionen hat, einen Fußgänger zu überfahren oder ein Hindernis zu rammen und so die Autoinsassen in Gefahr zu bringen, muss selbstständig eine Entscheidung treffen. Der Fahrer möchte überleben und wird ein Auto bevorzugen, das ihn in jeder Verkehrslage schützt. Fußgänger und Radfahrer sehen das naturgemäß anders. Hersteller müssen hier eine Entscheidung von gesamtgesellschaftlicher Relevanz in die Software einprogrammieren und werden dafür voraussichtlich zur Rechenschaft gezogen werden können.

Ebenso wie der Autohersteller werden sich die Manager in den Unternehmen für die Entscheidungen der eingesetzten KI verantworten müssen. Das gilt sowohl für rechtliche Fragestellungen als auch für Konsequenzen in der öffentlichen Wahrnehmung.

Mit schlechten Daten führen Mensch und Maschine schlecht

KI wird unsere Denkarbeit nachhaltig prägen und das Urteil der Führungskräfte unterstützen. Algorithmen sind in der Lage, eine erheblich größere Anzahl von Problemlösungen als der Mensch zu verarbeiten - und das auf der Basis einer wesentlich größeren Datenmenge. Die Veränderungen durch KI haben elementare Auswirkungen auf den Einzelnen und die Gesellschaft. Dies betrifft sowohl das soziale Handeln und das Rollenverständnis (auch von Managern) als auch die gesellschaftliche und politische Willens- und Meinungsbildung.

Die Grundlage für Algorithmen sind Daten. Wie ein menschlicher Entscheider können auch Algorithmen aufgrund von unvollständigen oder fehlerhaften Daten falsche Entscheidungen treffen. Wie beim Menschen ist auch für die KI die Korrektheit der zugrundeliegenden Informationen der stärkste Garant für richtige Entscheidungen.

Sie möchten mehr erfahren über Machine Learning? Lesen Sie hier:

Stimmt die Datenqualität, können sich Führungskräfte von morgen mithilfe des Einsatzes von KI einen entscheidenden Vorsprung verschaffen. In Zukunft werden viele von ihnen einen kleinen, hochqualifizierten Stab von Daten-Analysten und Informationsarchitekten beschäftigen, die ihnen helfen werden, mit den geeigneten Daten KI-unterstützt die richtigen Rückschlüsse zu ziehen.

Der Mensch wird in diesem Szenario nicht überflüssig: Seine besondere Fähigkeit wird darin liegen, auch bei unvollständiger Datenlage durch Beobachtung und Abstraktion Entscheidungen zu fällen. Das Gleichgewicht aus human-intellektueller und emotionaler Intelligenz kann KI (noch) nicht in gleicher Plastizität und Variabilität abbilden.

Leadership basiert nicht nur auf Zahlen, Daten und Fakten, sondern auch auf Empathie, Kreativität und Charisma. Verantwortungsbewusstes Führen und sinnvolles Delegieren von Verantwortung bleiben auch mit KI eine Herausforderung. KI wird nicht die Verantwortung für schwierige Entscheidungen übernehmen können. Sie sollte auch nicht dahingehend missbraucht werden, dass Führungskräfte sie heranziehen, um ihre Verantwortung auf die Technik abzuwälzen. Entscheidungen sollten eine menschliche Domäne bleiben. Auch wenn sie oft nicht einfach und auch nicht beliebt sind, gehören sie nicht auf die KI abgeschoben.

Der technische Fortschritt und die Leitplanken, die KI für zukünftige Führungskräfte setzt, impliziert, den Mitarbeiter der Zukunft nicht aus den Augen zu verlieren. Wer eine KI-Strategie entwirft, sollte sich auch über eine langfristige Talent-Strategie Gedanken machen. Die in Fach- und Führungspositionen drängenden Digital Natives werden von ihren Arbeitgebern Digitalisierung und Vernetzung einfordern. Sie werden hochgradig dynamisch und komplex mit der KI oder der intelligenten Maschine zusammenarbeiten. Dabei müssen technische Anforderungen erfüllt sein, doch der entscheidende Faktor ist, ob es gelingen wird, die Bedürfnisse der Menschen mit den von KI geschaffenen Tatsachen in Einklang zu bringen.

Die Grenzen der Technologie

KI wird bereits in vielen Unternehmensbereichen eingesetzt. Die Rekrutierung von Fach- und Führungskräften gehört dazu. Hier können intelligente Tools eine Vorauswahl treffen, so dass sich Personal-und Fachabteilungen auf die finale Entscheidung konzentrieren können. Lebensläufe und Bewerbungsunterlagen lassen sich heute digital auswerten und evaluieren. Schon beginnen erste Unternehmen, die Bewerbungsgespräche von einem Computer vornehmen lassen. Die KI analysiert nicht nur inhaltlich die Antworten des Bewerbers auf standardisierte Fragen, sondern mittels Webcam auch seine Mimik, Stimme und so weit möglich auch die nonverbale Kommunikation.

Wichtig ist auch hier, dass Menschen die Endauswahl treffen, zumal KI nicht gegen Diskriminierung gefeit ist. Zwei Beispiele illustrieren, wie leicht eigentlich auf Objektivität ausgerichtete lernende Programme aufgrund schlampig oder subjektiv ausgewählter Lerndaten das Gegenteil bewirken können:

Lernen vom Menschen: Eine deutsche Universität hat schon vor einiger Zeit ein System so trainiert, dass es einem Personaler bei der Beurteilung von Lebensläufen gewissermaßen über die Schulter schaute und so seine Entscheidungsparameter lernte. Dabei übernahm es auch die subjektiven Präferenzen und Vorurteile dieser Person.

Diskriminierende Parameter: Das zweite Beispiel stammt aus den USA. Dort hat kürzlich ein Unternehmen einen KI-Algorithmus eingesetzt, um eingehende Bewerbungen nach bestimmten Kriterien vorzuselektieren. Dem Unternehmen war es wichtig, Diskriminierung auszuschließen. Allerdings zeigten dann die Ergebnisse, dass sich die KI überproportional oft für weiße Bewerber entschieden hatte und andere Ethnien stark vernachlässigt worden waren.

Nach intensiver Kontrolle der Software kam man zu der Erkenntnis, dass der Wohnort der Bewerber das Problem verursacht hatte. Das Unternehmen hat seinen Firmensitz in einer amerikanischen Großstadt und je weiter der Weg vom Wohnort zum Arbeitsplatz für den Bewerber war, desto negativer schlug sich das auf die Eignung nieder. Nun lagen aber die vornehmen, hauptsächlich von Weißen bewohnten Suburbs näher am Firmensitz als jene, in denen viele andere Ethnien wurden. Dadurch kam es zu einer Diskriminierung, die durch den vermeintlich objektiven Algorithmus eigentlich ausgeschlossen werden sollte. (hv)