Künstliche Intelligenz (KI) und damit ausgestattete Roboter halten Einzug in unser Leben - vom körperlosen Assistenten im Smartphone über Haushaltshilfen bis zum Pflege-Roboter, der uns zur Bahre begleitet. Eine solch umfassende technische Neuerung in allen Lebensbereichen bringt die Frage mit sich, wie wir mit den neuen Gefährten in unserer Mitte umgehen sollen.
Was bedeuten intelligente Roboter am Arbeitsplatz etwa für die Tragfähigkeit der Sozialsysteme und die Verteilung des Wohlstands? Werden wir Robotersteuern oder Menschenquoten in Unternehmen einführen müssen? Wie legen wir Verhaltensregeln neu fest? Diese und mehr Fragen wirft auch das Europäische Parlament in seinem Papier auf. Unter vielen Fragen finden sich darin auch einige Antworten - und Empfehlungen an die Entwickler, Ingenieure und Hersteller von Robotern und KI-Systemen. Schließlich halten sie die Zukunft tatsächlich in der Hand.
Sie sind es auch, die jeden Tag an die Akzeptanz ihrer Produkte denken. Schließlich wäre ein inakzeptables Produkt ein Rohrkrepierer. Daher lohnt es sich, einen Blick auf die Anwendung der Artificial Intelligence in der realen Welt zu werfen - welche Herausforderungen ergeben sich dabei? Was bedeutet das für die Akzeptanz intelligenter Maschinen? Wie sich zeigt, spielt die menschliche Sprache dabei eine tragende Rolle.
- Facebook Big Sur
Das unter Open-Source-Lizenz stehende KI-System setzt auf die Nvidia Tesla Accelerated Computing Platform und übernimmt bei Facebook heute komplexe Aufgaben, für die früher auf Drittanbieter-Hardware zurückgegriffen werden musste. - Google RankBrains
Für Suchanfragen, die erstmalig auftauchen, soll RankBrains menschliche Schriftsprache in mathematische Vektoren übersetzen, die die Suchengine dann verarbeiten kann. Diese Form des maschinellen Lernens wird mit steigender Zahl bislang unbekannter Suchanfragen immer besser. Wissbegierige Internetnutzer trainieren das System quasi unbewusst. - Google Deepmind AlphaGo
Besiegte kürzlich den Welt- und den Europameister im asiatischen Brettspiel Go: das KI-System Alpha Go, das von Google Deepmind entworfen wurde. - SwiftKey Neural Alpha
Wer SMS schreibt, bekommt schon länger Wortvorschläge. Mit Neural Alpha will "n-gram"-Erfinder SwiftKey nun aber auch ganze Satzzusammenhänge vorhersagen und so die Texteingabe noch intuitiver machen. - Open AI
Investor und Tesla-Gründer Elon Musk erforscht in der "Open AI"-Initiative zusammen mit anderen Silicon-Valley-Vordernkern die Künstliche Intelligenz zum Wohle der Menschheit. Damit wir keine bösen Terminatoren bekommen, die uns alle versklaven wollen... - Microsoft XiaoIce
Der Microsoft-"Virtual Social Assistant" XiaoIce trägt seit Ende 2015 den Wettbericht im chinesischen Fernsehen komplett ohne menschliche Hilfe vor. - Roboter-Concierge Connie
Wenn Sie demnächst in einem Hilton absteigen, könnten Sie einem kleinen Roboter-Concierge begegnen: "Connie" arbeitet mit Watson-Technologie von IBM und steht Hotelgästen mit Rat und Tat zur Seite. Das Pilotprojekt läuft gerade in den USA.
KI-Akzeptanz durch Vertrauensbildung
KI - genauer: Die Anwendung von Künstlicher Intelligenz in der Interaktion von Mensch und Maschine - manifestiert sich in konkreten lebensweltlichen Situationen. Dabei wird die natürliche Sprache in vielen Fällen das bevorzugte, wenn nicht sogar das ausschließliche Interface sein. Die Vorteile liegen auf der Hand, wobei einer herausragt: Es ist die Möglichkeit der Maschine, mit natürlicher Sprache beim Nutzer sehr schnell Vertrauen zu gewinnen. Dies ist ausschlaggebend dafür, dass sie in Echtzeit Zustimmung für ihre Entscheidungen erhalten und damit auch in unvorhersehbaren Situationen die vom Menschen gewünschten Ergebnisse erzielen kann.
Ein Beispiel: Eine sprachgesteuerte Maschine fährt das Automobil. Sie sagt, dass sie die Autobahn verlassen wolle. Der Insasse fragt: "Warum?" Die Maschine antwortet: "Um diese Zeit kommt es auf dem vor uns liegenden Streckenabschnitt erfahrungsgemäß zu Staus. Ich habe ermittelt, dass wir früher am Ziel sind, wenn wir hier abbiegen". Diese Begründung schafft Vertrauen beim Nutzer. Das Problem: Neuronale Netze, die für das "Deep Learning" einer Artificial Intelligence (AI) sorgen, können aus großen Datenmengen zwar ihre eigene Funktion optimieren - und somit selbstfahrende Autos immer besser machen. Doch wie und warum sie zu einer Schlussfolgerung kommen, das können sie nicht erklären. Dafür braucht es regelbasierte Systeme. So schafft die artifizielle Intelligenz Vertrauen beim Nutzer.
- Microsoft Machine Learning
Azure Machine Learning ist ein vollständig verwalteter Cloud-Dienst, mit dem Anwender Predictive Analytics-Lösungen generieren und bereitstellen können. - Microsoft Cognitive Services
Die Cognitive Services von Microsoft enthalten unter anderem Dienste für Bildanalyse und Gesichtserkennung. - Amazon ML
Amazon Machine Learning unterstützt den Anwender bei der Fehleranalyse von Vorhersagemodellen. - Amazon Bot
Mit Amazon Lex können Chatbots beispielsweise für Verbraucheranfragen erstellt werden. - Google API
Über APIs lassen sich Google AI-Services in eigene Anwendungen integrieren. - Google Tensorflow
Das von Google stammende Open-Source Framework Tensorflow ist die Basis von Cloud ML. - IBM Bluemix
IBM bietet auf der Cloud-Plattform Bluemix zahlreiche Watson-basierte AI-Anwendungen. - IBM ML
IBM Machine Learning ermöglicht die Entwicklung und den Einsatz selbstlernender Analysemodelle in der Private Cloud. - HPE Haven
Mithilfe der Gesichtserkennungs-API von HPE können Entwickler in Fotos gefundene Daten importieren, extrahieren und analysieren. - Salesforce Einstein
Salesforce Einstein: Predictive Content liefert Kunden auf Basis von maschinellem Lernen eine individuelle Empfehlung für das beste Produkt.
Akzeptanz hängt auch davon ab, ob Risiken vermieden werden. Nehmen wir an, obige sprachgesteuerte Maschine fahre ein Automobil, in dem sich eine Familie mit Heranwachsenden befindet. Die Rasselbande auf den Rücksitzen fordert wild durcheinander rufend, die Geschwindigkeit zu erhöhen, weil - wie sie meint - Autofahren sich an der Formel 1 zu orientieren habe. Bestenfalls wäre die Maschine "verwirrt" und würde die Arbeit einstellen, da sie auf ein Sprachgewirr nicht rational reagieren kann. Im denkbar schlimmsten Fall würde sie erratisch reagieren.
Das Artificial-Intelligence-System würde sich diesbezüglich nicht vom Menschen unterscheiden. Um die mit einem solchen Szenario verbundenen Risiken auszuschalten, werden die KI-Designer zu biometrischen Authentifizierungsverfahren greifen, mit denen die Maschine den anweisungsberechtigten "Boss" im Fahrzeug erkennen kann. Ein bewährter Ansatz aus der Praxis ist dabei die Stimmbiometrie, die heute bereits in Callcentern von Banken zum Einsatz kommt.
Die Grenzen der Artificial Intelligence
Ein weiterer interessanter Aspekt sind die Grenzen der Artificial Intelligence. Einer der Gründe, warum selbst KI-Experten derzeit nur schwer vorhersagen können, wo ihr Feld in fünf Jahren sein wird, ist die immense Geschwindigkeit des Fortschritts. Dies erklärt auch, warum Künstliche Intelligenz zurzeit in allen Schlagzeilen vertreten ist. Es ist schlicht nicht vorhersehbar, was AI als Technologie bald alles können wird.
Dieses Problem auf der Makro-Ebene - nämlich nicht zu wissen, wo die Fähigkeiten Künstlicher Intelligenz reguliert werden müssen - spiegelt sich auch auf der Mikro-Ebene: Woher wissen wir, was ein bestimmter Roboter kann und nicht kann? Das EU-Parlament rät den Nutzern, sich im Klaren darüber zu sein, dass jeder Roboter nur begrenzt wahrnehmen und verstehen kann. Das ist ein gut gemeinter Rat, doch wie soll ein Nutzer ihm folgen? Nützlicher wäre es, wenn er die spezifischen Beschränkungen des Systems erkennen könnte, mit dem er sich im Moment beschäftigt.
- DHL über Robotics in Logistics
Die DHL Customer Solutions & Innovation (Deutsche Post DHL Group) legt mit der Studie "Robotics in Logistics" einen Ausblick in mögliche künftige Arbeitswelten vor. - Baxter
Im DHL Asia Pacific Innovation Center sorgt Roboter "Baxter" für Ordnung. - DHL Parcel Robot
Die DHL setzt diese "Päckchen-Roboter" ein. - Vision
In DHLs Vision einer Welt der Advanced Robotics wachsen nicht nur Robotics und Biologie zusammen, auch die Gesetzgebung nimmt sich der Robotics an. - DHL Sorting Center
Zumindest auf dem Papier gibt es das umfassend aufgerüstete DHL Sorting Center bereits. Menschen sind hier nur noch im Robot Control Center tätig. Sie werden – zumindest laut dieser Vision – nicht mehr mit Gefahrengütern hantieren müssen. - Exoskeleton Suits
Sogenannte Exoskeleton Suits verstärken die menschliche Muskelkraft. Im Arbeitsleben sollen sie es beispielsweise Zulieferern ermöglichen, Lasten von bis zu 80 Kilogramm mühelos zu tragen. - Exoskeleton Suits
Exoskeleton Suits werden auch in der Medizin eingesetzt. Einer der gro0en Anbieter ist die Firma Ekso Bionics aus den USA, die auch eine Niederlassung in Freiburg hat. - Mensch und Roboter
DHL traut den Entwicklern von Robotern zu, diese emotional und menschenbezogen zu gestalten. Es wird nicht mehr nur um das Ausführen von Arbeiten gehen.
Hier ist die Fähigkeit der Maschine zur natürlichen Sprache zunächst ein Hindernis. Früher war die Grenze zwischen dem Menschen und seiner Umwelt klar durch die Fähigkeit zur Sprache definiert. Tiere unterhalten sich ebenso wenig mit uns wie Möbelstücke. Diese Unterscheidung ist noch tief in unserem Gehirn verankert. Daher waren die ersten trivialen Dialogsysteme wie Eliza in ihrer Intelligenz hoch überschätzt - man glaubte, weil die Maschine sprach, sei sie intelligent wie ein Mensch. Die Grenze verschwimmt hier schnell.
Der Tipp des EU-Parlaments an Robotik-Entwickler lautet: "Stellen Sie sicher, dass Roboter als Roboter erkennbar sind, wenn sie mit Menschen interagieren." Eine Regel, an die sich schon heute nicht alle halten. Auch Assistenzsysteme wie Siri, Cortana und dergleichen machen es dem Nutzer nicht leicht, die Grenzen des Systems zu erkennen, weil sie als umfassende Assistenten auftreten, die in allen Lebenslagen helfen. Auch wenn diese Hilfe manchmal in einer wenig hilfreichen Web-Suche endet. Ein einfacherer und besserer Ansatz sind daher dedizierte Assistenzsysteme: Ein Assistent im Auto, der wie beim obigen Beispiel in der Routenführung und Fahrzeuglenkung hilft, lässt klar erkennen, wo seine Expertise endet. Ebenso ist ein virtueller Kundenberater für ein bestimmtes Problem hilfreich, doch seine Großmutter vertraut man ihm nicht an.
Die Roboter der Zukunft
Bezüglich der Entwicklung von KI und Robotik sind zwei Fakten schon heute sicher: Sie geht schneller voran als man denkt und die Fähigkeit zur natürlichen Sprache spielt eine große Rolle. Maschinen, die mit uns sprechen, helfen nicht nur Artificial Intelligence als Teil unserer Gesellschaft zu akzeptieren, sondern sie erleichtern uns den Umgang mit ihnen. Wir können besser verstehen, was ein System tut, wenn es uns die Logik seiner Handlung erklärt; wir sind eher bereit, mehrere Roboter um uns herum zu akzeptieren, wenn wir verstehen, was sie untereinander "besprechen". Ein weiterer vielversprechenderer Ansatz ist der von Assistenzsystemen: Der Nutzer ist umgeben von Dutzenden Systemen mit unterschiedlichen Fähigkeiten - für die Interoperabilität wäre daher eine Art "Masterbot" hilfreich, der für den Nutzer mit den anderen AI-Systemen kommuniziert. Trotz aller voranschreitenden Verbesserungen wird Regulierung notwendig bleiben, um die Entwicklung zukünftiger KI-Systeme zu leiten. Die Anwendbarkeit und Akzeptanz von Systemen richtet sich zum Großteil nach ihrem Nutzen in der realen Welt - dieses Verständnis ist wichtig, wenn wir nicht nur umfangreiche, sondern auch sinnvolle Regeln für den Umgang mit KI aufstellen wollen. (fm)