Professor Wolfgang Wahlster, Vorsitzender der Geschäftsführung und Wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz GmbH in Saarbrücken, erläutert im Gespräch mit der COMPUTERWOCHE, warum er diese Befürchtungen hinsichtlich der Entwicklung humanoider, selbstlernender Systeme nicht teilt. Er spricht aber sehr wohl auch über die Risiken, die mit der fortschreitenden Entwicklung "intelligenter" Systeme verbunden sind.
Das DFKI arbeitet derzeit im Rahmen des vom Bundesforschungsministerium geförderten Projekts Hysociatea daran, wie künftig mit Hilfe von Softwaresystemen hybride Teams aus Mitarbeitern und verschiedenen Robotern für gemeinsame Problemlösungen im Umfeld von Industrie 4.0 koordiniert werden können. Hier geht es auch darum, wie ein solches hybrides Team die verschiedenen Teilaufgaben an die jeweils geeignetsten Akteure verteilt und den gemeinsamen Fortschritt verfolgt. Wahlster sagt dazu: "Es ist also in der künstlichen Intelligenz keinesfalls das Ziel, einen digitalen Homunkulus zu erschaffen. Dagegen sollen die Sinneswahrnehmung, die Motorik, die Lernfähigkeit, die Verhaltensplanung und die Inferenzfähigkeit des Menschen komplementär dort ergänzt werden, wo es im Hinblick auf Assistenzfunktionen für den Menschen sinnvoll ist."
CW: Prominente Unternehmer und Wissenschaftler warnen vor den Gefahren durch künstliche Intelligenz. Stellen solche Systeme eine Gefahr für die Menschen dar?
Wolfgang Wahlster: Ich beschäftige mich seit über 30 Jahren mit dem Thema KI. Wenn man so lange an diesem Thema arbeitet, bekommt man trotz aller Forschungserfolge immer mehr Respekt vor der menschlichen Intelligenz. Trotz aller wissenschaftlichen Durchbrüche der KI, an denen auch deutsche Wissenschaftler maßgeblich beteiligt waren, wie dem Sieg über einen Schachweltmeister, der Dialogübersetzung auf dem Smartphone oder dem selbstfahrenden Auto, ist es Science-Fiction, zu behaupten, dass die künstliche Intelligenz sich verselbständigen könne und die Menschheit bedrohe.
CW: Warum kann das nicht passieren?
Wolfgang Wahlster: Maschinelles Lernen unterscheidet sich prinzipiell vom menschlichen Lernen. Es geht in der KI keinesfalls darum, menschliches Verhalten mit all seinen Stärken, aber auch den vielen Schwächen perfekt nachzubilden, sondern wir wollen dem Menschen mit KI assistieren, wo dies sinnvoll ist. Beim Lernen von Regelmäßigkeiten in sehr großen Datenmengen sind maschinelle Lernverfahren dem Menschen heute bereits überlegen.
Andererseits kann aber Common Sense, der auch die soziale und emotionale Intelligenz des Menschen stark fordert, bislang nur äußerst beschränkt von maschinellen Systemen erworben werden. Technologien der KI zur automatischen Perzeption, zum Verstehen, Lernen, Suchen und Schlussfolgern nutzen wir heute beispielsweise auf Smartphones tagtäglich: bei der Wegsuche, im Sprachdialog mit Assistenzsystemen wie Siri und Cortana oder in Empfehlungssystemen auf Web-Portalen. Dem liegen zwar äußerst komplexe Softwaresysteme zugrunde, aber ich kann hier kein prinzipielles Problem einer sich aufbauenden Superintelligenz erkennen.
CW: Aber Firmen forschen daran. Kann dabei so eine Superintelligenz herauskommen?
Wolfgang Wahlster: Da Internet-Firmen derzeit stark im Bereich der KI investieren, entsteht schnell auch ein Hype-Zyklus, den wir leider in der Geschichte der KI schon mehrfach durchlaufen haben. Dabei werden oft durch Persönlichkeiten, die in der internationalen Forschergemeinschaft zur KI selbst wissenschaftlich gar nicht anerkannt sind, in der Öffentlichkeit mit populärwissenschaftlichen Texten überzogene Erwartungen an die Leistungsfähigkeit von bestimmten Technologien erweckt. Dies war in der Vergangenheit schon bei Begriffen wie "Neuronale Netze" und später "Expertensysteme" der Fall, und jetzt wird rund um das maschinelle Lernen erneut eine solche Blase erzeugt.
Die deutsche Forschung ist immer gut damit gefahren, hier auf dem Boden der Tatsachen zu bleiben, seriöse Grundlagenforschung zu betreiben, sinnvolle Anwendungen voranzutreiben und zusammen mit der Industrie umzusetzen. Dadurch blieben wir in Deutschland von den sogenannten KI-Wintern in den USA verschont, wenn völlig überzogene Erwartungen herb enttäuscht wurden und die Forschungsinvestitionen dann drastisch heruntergefahren wurden. KI kann auch als Abkürzung für "künftige Informatik" verstanden werden: Die künstliche Intelligenz bildet eine Avantgarde in der Informatik, weil dieses Forschungsgebiet seit seiner Gründung immer wieder an die jeweiligen Grenzen der Digitalisierung und Algorithmisierung heranführt.
CW: Aber Skeptiker wie der Technikvisionär Raymond Kurzweil finden viel Gehör.
Wolfgang Wahlster: Ja, leider. Aber unter Wissenschaftlern sind seine Thesen sehr umstritten. In den USA haben sich namhafte Informatiker von Kurzweils extremen Vorstellungen einer Superintelligenz bis hin zur Unsterblichkeit klar distanziert. Trotz der großen Fortschritte auf vielen Teilgebieten der KI sind wir selbst von den alltäglichen Intelligenzleistungen eines Menschen noch weit entfernt und erreichen hier nicht einmal Vorschulniveau. Laien finden es oft paradox, dass dagegen KI-Systeme in speziellen Bereichen tatsächlich dem Menschen überlegen sind. So bestätigen menschliche Weltmeister, daß die Spielstärke der besten Backgammon-Programme inzwischen höher als die der besten Spieler ist.
Künstliche Intelligenz ist besser als natürliche Dummheit, aber natürliche Intelligenz ist bei sehr vielen Aufgabenstellungen besser als künstliche Intelligenz. Wenn Unsicherheit, Vagheit und wenig Erfahrungswerte eine Problemstellung dominieren oder soziale und emotionale Faktoren eine wesentliche Rolle bei der Problemlösung spielen, haben heutige KI-Systeme kaum Chancen. So könnte kein heutiges KI-System einem Kind das Fahrradfahren beibringen. Warum auch? Das sollte weiterhin eine schöne Herausforderung für die Eltern mit all ihrer Empathie bleiben. Trotz der Fehlbehauptungen von Kurzweil muss man die Ängste als Reaktion auf dessen Thesen aber sehr ernst nehmen und die Risiken von selbstlernenden Systemen offen adressieren.