1997: Der IBM-Computer "Deep Blue" schlägt den amtierenden Schachweltmeister Gary Kasparow +++ 2011: Zwei menschliche Quiz-Champions unterliegen dem IBM-Superrechner "Watson" in der US-amerikanischen Quizsendung Jeopardy +++ 2016: Das von Google DeepMind entwickelte Computerprogramm "AlphaGo" besiegt den südkoreanischen Go-Weltmeister Lee Sedol mit 4:1 +++ 2017: "Libratus" zockt Poker-Profis ab.
Diese und andere Meldungen befeuerten in den zurückliegenden Jahrzehnten immer wieder heftige Diskussionen über künstliche Intelligenz und die Konsequenzen für die Menschheit. Meistens schwang dabei die Sorge mit, Maschinen und Computer könnten sich verselbständigen und über immer mehr Lebensbereiche die Kontrolle gewinnen. Zu den prominenten Warnern gehören seit Jahren Microsoft-Gründer Bill Gates und der britische Physiker Stephen Hawking. Andere Experten setzen dagegen große Hoffnungen in KI. Im Zusammenspiel mit Robotik und Automatisierung seien große Entwicklungssprünge in Sachen Produktivität und Arbeitserleichterung möglich. Viele globale Probleme vom Klimawandel bis hin zur Bewältigung von Hunger- und Flüchtlingskrisen ließen sich mit Hilfe von KI-Techniken lösen, so die Hoffnung der Befürworter und Optimisten.
Retter oder Untergang?
Ist KI der Retter oder der Untergang der Menschheit? Solche Diskussionen werden tatsächlich geführt. Keine andere Technik polarisiert stärker. Dabei ist das Thema alles andere als neu. Bereits in den 50er Jahren des 20. Jahrhunderts haben Wissenschaftler den Begriff der künstlichen Intelligenz geprägt. Die Arbeiten von Forschern unterschiedlichster Disziplinen drehten sich um die zentrale Frage, wie sich eine Maschine bauen ließe, die menschliche Intelligenz imitieren kann. Doch die KI-Entwicklung hatte ihre Höhen und Tiefen. Auf Erfolgsmeldungen, die teilweise euphorische Science-Fiction-Phantasien anstachelten, folgten immer wieder Enttäuschungen, weil die Technik noch nicht reif war und die Rechenkapazitäten fehlten. Experten sprechen in diesem Zusammenhang von "KI-Wintern".
Das könnte sich nun allerdings ändern. Die technischen Voraussetzungen haben sich deutlich weiterentwickelt – es gibt Rechenpower, Speicher und Daten ohne Ende. Auch die Methodik, wie Maschinen und Computer lernen und damit "intelligenter" werden, hat sich grundlegend gewandelt. Vor 20 Jahren profitierte Deep Blue in seinem Schach-Duell gegen Kasparow vor allem von seiner immensen Rechenpower: 200 Millionen Stellungen pro Sekunde konnte das System berechnen. Allerdings handelte es sich dabei nicht um ein selbstlernendes System, wie auch IBM einräumte. Deep Blues Software wurde im Vorfeld mit Tausenden Partien und Schachwissen gefüttert, die der Rechner für seine Züge durchsuchte und bewertete.
Im Lauf der Jahre wurden die KI-Methoden immer weiter verfeinert. IBMs Watson warf zwar immer noch extrem viel Rechenpower in die Waagschale, ausschlaggebend für den Jeopardy-Sieg war aber die DeepQA-Software. Sie konnte den Sinn von Fragen erfassen, die in natürlicher Sprache gestellt wurden, und innerhalb kürzester Zeit auf Basis einer textbasierten Datenbankrecherche die notwendigen Fakten für die richtige Antwort finden.
Das menschliche Gedächtnis simulieren
Google, das im Jahr 2014 das britische Startup DeepMind übernahm und damit seine KI-Anstrengungen deutlich forcierte, verfolgt das Ziel, seine KI-Systeme flexibel einsetzbar zu machen. Die Struktur basiert auf einem neuronalen Netz und beinhaltet darüber hinaus eine Art Kurzzeitspeicher, mit dem sich die Fähigkeiten eines menschlichen Gedächtnisses simulieren lassen.
Für Aufsehen sorgte DeepMinds Programm AlphaGo, das im März 2016 den Profispieler Lee Sedol im Go-Spiel besiegen konnte. Go galt verglichen mit Schach als weit höhere Hürde für die KI. Aufgrund des größeren Spielfelds (19 mal 19 Felder) sowie der hohen Zahl an Zugmöglichkeiten ist das Spiel wesentlich komplexer als Schach und damit auch nicht mit den klassischen Rechenoptionen eines Deep Blue zu bewältigen.
AlphaGo verwendete verschiedene Kategorien von künstlichen neuronalen Netzen: ein Regelnetz mit einer Vielzahl von Partien, um alle möglichen Zugvarianten zu bestimmen, sowie ein Bewertungsnetz, um bestimmte Positionen richtig einschätzen zu können. In beiden Netzen kommen Methoden des "bestärkenden Lernens" zum Einsatz. Dabei erlernt ein sogenannter Agent innerhalb der Software selbständig eine Strategie. Es wird nicht vorgegeben, welche Aktion in welcher Situation die beste ist, sondern das System erhält zu bestimmten Zeitpunkten in der Lernphase ein Feedback. Anhand dessen ermittelt der Agent den Nutzen, den ein Zustand oder eine Aktion hat. Die Software lernt – ähnlich wie ein Mensch – durch positive und negative Bestätigung für bestimmte Handlungen.
Im Grunde genommen hat die KI-Technik damit einen neuen Level erreicht. Es geht nicht mehr darum, einen Rechner mit möglichst viel Informationen und Daten zu füttern, aus denen dieser dann mit Hilfe spezieller Algorithmen, die in aller Regel aufwendig programmiert werden müssen, und mit purer Rechenpower die Lösung für ein Problem, eine Aufgabe oder Frage errechnet. Heute sind lernende KI-Systeme in der Lage, selbständig Lösungen und Antworten zu finden. Das hat zudem den Vorteil, dass diese Art der KI nicht mehr aufwendig für eine bestimmte Aufgabe entwickelt werden muss, sondern flexibel für verschiedene Aufgaben trainiert werden kann.
Libratus zockt Profis im Poker ab
Den Beweis, dass die neue Generation von KI immer innovativer und leistungsstärker funktioniert und arbeitet, hat dieser Tage "Libratus" angetreten. Libratus wurde von Wissenschaftlern der Carnegie-Mellon-University entwickelt und trat in dem Wettbewerb "Brains vs Artificial Intelligence: Upping the Ante" gegen vier Profi-Poker-Spieler an. Vom 11. bis 30. Januar 2017 wurden im Rivers Casino im US-amerikanischen Pittsburgh 120.000 Hände Texas-Hold’em-Pokerblätter gespielt. Am Ende waren Jimmy Chou, Dong Kim, Jason Les und Daniel McAuley besiegt. Libratus hatte die Profi-Spieler nach allen Regeln der Kunst abgezockt. 1.766.250 Dollar hätte die KI gewonnen, wenn es bei dem Spiel um reale Dollars gegangen wäre.
Dabei standen die Chancen für die menschlichen Spieler eigentlich nicht schlecht. Poker stellt eine besonders komplexe Herausforderung für KI dar. Während bei Spielen wie Schach und Go mit offenen Karten gespielt wird und den Spielern jederzeit alle Informationen wie Stellung, Position und Zahl der Figuren beziehungsweise Spielsteine zugänglich sind, gilt es beim Pokern mit unvollständigen Informationen klarzukommen. Keiner der Spieler – auch die KI nicht – weiß, welche der 52 Karten aktuell im Spiel sind. Dazu kommen Bluffs, um die Gegner in die Irre zu führen.
Das macht Poker für Maschinen extrem komplex. Vor zwei Jahren war die erste KI-Version "Claudico" noch unterlegen. Das hat sich nun geändert. Libratus hat gelernt, sich auf die menschliche Spielweise und die damit verbundenen Unwägbarkeiten einzustellen. Man habe das KI-System anfangs wohl etwas unterschätzt, räumte Pokerprofi Chou ein. Die Maschine sei jeden Tag besser geworden. Zwar hätten sich die Spieler ausgetauscht, um gemeinsam Schwachstellen der Poker-KI herauszufinden. "Bei jeder Schwäche, die wir fanden, lernte Libratus von uns", stellte Chou aber fest. "Und am nächsten Tag war sie verschwunden."
Poker sei eine gute Messgröße, um die Leistungsfähigkeit von KI zu beurteilen, sagt Tuomas Sandholm, Professor an der Carnegie Mellon University und Kopf der Libratus-Entwicklung, eine wesentlich schwierigere Herausforderung als Schach oder Go. Die Maschine müsse extrem komplexe Entscheidungen treffen, die noch dazu auf unvollständigen Informationen basieren, und gleichzeitig auf Bluffs und andere Tricks reagieren. Nach dem gewonnenen Pokermatch sieht der Wissenschaftler etliche Einsatzbereiche für Libratus, in denen ebenfalls Entscheidungen auf Basis einer unsicheren Informationslage gefällt werden müssen, zum Beispiel beim Militär oder im Finanzsektor.
Poker, Go und Schach sind nicht gerade Faktoren, die auf grundlegende Verwerfungen in Ökonomie und Gesellschaft hindeuten. Doch der Eindruck, KI erziele ihre spektakulären Erfolge nur auf Spezialgebieten, täuscht. Längst experimentieren Unternehmen aus verschiedenen Branchen, wie KI bestimmte Arbeiten effizienter, schneller und kostengünstiger erledigen kann – in letzter Konsequenz auch ohne Zutun oder Mithilfe des Menschen.
Watson jobbt in der Versicherungsbranche
So will das Versicherungsunternehmen Fukoku Mutual Life 34 Mitarbeiter durch ein KI-System ersetzen. Deren Arbeit soll künftig IBMs Watson-Technik übernehmen. Das System soll Unterlagen von Hospitälern sowie Ärzten analysieren und prüfen, ob deren Angaben schlüssig und richtig sind. Allerdings, so betonten die Verantwortlichen des japanischen Versicherers, würde die Auszahlung der Versicherungsprämie schlussendlich nach wie vor von einem Menschen und nicht von einer Maschine veranlasst.
Watson helfe lediglich, Daten und Informationen zu prüfen. Fukoku verspricht sich davon eine um 30 Prozent bessere Produktivität sowie handfeste finanzielle Vorteile. Das IBM-System soll 2,36 Millionen Dollar sowie weitere 177.000 Dollar pro Jahr an Wartung kosten. Angesichts der jährlich eingesparten Personalkosten in Höhe von 1,65 Millionen Dollar habe sich die Investition innerhalb von rund zwei Jahren amortisiert, rechnen die Japaner vor.
Mitte Januar berichtete das Medium "China Daily", dass ein KI-System einen Artikel über ein Festival geschrieben hat, der in der "Southern Metropolis Daily" veröffentlicht wurde. Die Maschine sei in der Lage, kurze wie auch längere Stücke zu verfassen. Der jetzt veröffentlichte Artikel sei innerhalb einer Sekunde entstanden. Verglichen mit klassischen Reportern könne KI mehr Informationen und Daten verarbeiten und sei außerdem in der Lage, Artikel deutlich schneller zu schreiben, erläuterte Xiaojun Wan, Professor an der Peking University und Leiter des entsprechenden Entwicklungsprojekts. Allerdings könnten Journalisten nicht von heute auf morgen durch Roboter ersetzt werden, relativierte der Wissenschaftler. Wenn es darum gehe, Interviews zu führen und bestimmte Aspekte durch weitere Fragen zu klären, könne KI noch nicht mit menschlichen Fähigkeiten konkurrieren.
- Facebook-Gesichter
Computer können lernen, menschliche Gesichter zu unterscheiden. Facebook nutzt das für die automatische Gesichtserkennung. - Machine Learning
Anders als das Bild suggeriert ist Machine Learning ein Teilgebiet von Artificial Intelligence – allerdings ein sehr wichtiges. - AlphaGo
Maschine schlägt Mensch: 2016 besiegte Googles Machine Learning System AlphaGo den Weltmeister im Spiel Go. - Grafikprozessoren GPU Nvidia
Die führenden Companies im Machine Learning nutzen für die parallele Verarbeitung der Daten Grafikprozessoren (GPUs) - etwa von Nvidia. - Deep Learning
Deep Learning Verfahren lernen erst Low-Level Elemente wie Helligkeitswerte, dann Elemente auf mittlerer Ebene und schließlich High-Level Elemente wie ganze Gesichter. - IBM Watson
IBM Watson integriert mehrere Artificial Intelligence Methoden: Neben maschinellem Lernen sind das Algorithmen der natürlichen Sprachverarbeitung und des Information Retrieval, der Wissensrepräsentation und der automatischen Inferenz.
Die vielen Startups, die derzeit mit KI experimentieren, dürften dafür sorgen, dass die Liste mit Anwendungsbeispielen schnell länger wird. Dabei hilft auch die Tatsache, dass sich die KI-Entwicklung deutlich vereinfacht hat. Es braucht keine teuren Rechenboliden und aufwendigen Spezialentwicklungen mehr. Heute reichen für den Anfang Workstations beziehungsweise die Compute-Power von Grafikchips. Und wer mehr Leistung benötigt, kann diese relativ einfach in der Cloud dazubuchen. Zudem können die Entwickler mit zahlreichen KI-Frameworks arbeiten, die zum größten Teil als Open Source frei verfügbar sind.