Ein geeignetes Weltmodell muss her
Um Computern respektive Robotern das Denken beizubringen, muss ihnen ein geeignetes Weltmodell eingegeben werden. Die Maschinen können nur mit einem Modell der Umwelt, in der sie sich bewegen und agieren sollen, funktionieren, dass exakt auf ihre algorithmischen und senso-motorischen Möglichkeiten abgestimmt ist. Die Grenzen des Modells sind die Grenzen ihrer Welt. Nicht nur der radikale Konstruktivismus entwirft ein hiermit vergleichbares Bild der menschlichen Kognition.
So gesehen könnte man bei diesen Systemen mit einiger Berechtigung von maschinellem Lernen und künstlicher Intelligenz sprechen.
Für ein sich selbst bewusstes Denken fehlt künstlichen Systemen gleich welcher Art allerdings etwas Grundsätzliches: Eine verschachtelte Meta-Reflexion über die Selbstwahrnehmung ist genauso wenig modellierbar, wie sich die natürliche Sprache aus künstlichen Metasprachen modellieren lässt. Menschen erreichen eine solche, im Prinzip unendlich verschachtelte, Reflexion unter anderem über die Reflexivität der natürlichen Sprache. Auch die Fähigkeiten, Vorstellungsbilder zu entwickeln ("Visionen") oder Erlebnisse und Erfahrungen im sozialen Kontakt mit anderen Menschen aufzunehmen, auszutauschen und gemeinsam zu verarbeiten, sind exklusive Möglichkeiten von sozialen Lebewesen.
Ohne eine sich selbst bewusste Wahrnehmung und reflektierte, soziale Erfahrung der Außenwelt fehlt die Grundlage für autonomes, zielgerichtetes Handeln. Diese ist jedoch Voraussetzung, um sich schnell und sicher in einem neuen Terrain bewegen zu können.
Stefan Schaal, Forschungsgruppenleiter am Max Planck Institut für Intelligente Systeme, fasst die Problematik für die Roboterentwicklung folgendermaßen zusammen: "Ich kann ein gutes Modell von meinem Roboter hinbekommen, nicht jedoch von einer unbekannten Umgebung. […] Alle Roboter scheitern in ungewohntem Terrain, weil sie im wahrsten Sinne des Wortes zu einfältig sind."
KI fehlen grundsätzliche Fähigkeiten
Künstlichen Intelligenzen fehlen grundlegende Fähigkeiten und Erfahrungen, die uns Menschen ermöglichen, in unbekannten Situationen plausibel zu handeln. Ihnen fehlen auch Millionen Jahre Entwicklungsgeschichte, die Menschen und andere Lebewesen mit angeborenen Kompetenzen ausgestattet hat. Dazu gehören die im Gehirn angelegten Fähigkeiten zu gehen oder unsere Hände flexibel, feinmotorisch und feinfühlig einzusetzen. Auch entwickelt unser Gehirn automatisch Heuristiken, die es uns erst ermöglichen, uns in einer Umgebung, die unzählbar viele Daten bereithält, zu orientieren, Entscheidungen zu treffen und in Sekundenbruchteilen zu handeln - etwa, wenn wir uns durch eine Großstadt bewegen.
Roboter scheitern schon daran, einfache Aufgaben in überschaubaren Umgebungen zu erledigen - etwa auf eine beliebige Tür zuzugehen und diese zu öffnen. Einen aktuellen und unterhaltsamen Einblick in die Leistungsfähigkeit von Robotern - vor allem deren Standfestigkeit - geben die Live Mitschnitte der Darpa Robotics Challange (2).
Auch in den nächsten Jahren werden sich Roboter nicht alleine sicher durch ein Gebäude, geschweige denn durch eine Großstadt bewegen. Sie können nur für sie modellierte Gegenstände erkennen und (im Vergleich zum Menschen) langsam und unbeholfen greifen - allerdings nicht Gegenstände, auf die sie nicht vorbereitet wurden. Sie können sich nicht so mit Menschen unterhalten, wie es andere Menschen ab einem Alter von drei Jahren beherrschen - und vieles andere mehr.
Sinnlose Sichtweise
Computer werden per Definition nicht frei entscheiden können. Dies zumindest so lange nicht, wie sie an irgendeine Form von Programmierung - sei es eine elektronische oder biologische - gebunden sind. Auch wenn die Ergebnisse der Programmierung nicht vorhersehbar sind, darf das nicht mit Entscheidungsfreiheit verwechselt werden. Denn alle rechnerischen Optionen sind durch den Code festgelegt. Wäre der menschliche Geist bereits vollständig im genetischen Code festgelegt, wäre auch der Mensch nicht mehr als eine Biomaschine und damit ohne Verantwortung - eine Sichtweise, die alleine schon aus gesellschaftlichen Gründen keinen Sinn gibt.
Es ist im wahrsten Sinne also nur vernünftig anzunehmen, dass Maschinen in absehbarer Zeit oder überhaupt nicht in der Lage sein werden, wie Menschen zu denken, zu fühlen, zu handeln, zu glauben etc. Ansonsten würde etwa eine auf Verantwortung des Einzelnen basierende Gerichtsbarkeit, eine auf die natürliche Umgebung ausgerichtete Politik, Kunst und Kultur nicht mehr möglich.
Die logische, nicht mathematisch, Unmöglichkeit mit künstlichen Maschinen menschliches Bewusstsein nachzubilden, bedeutet jedoch nicht, dass es keine "starke KI" geben wird!
Maschinen sind auf einigen und werden auf noch vielen weiteren Gebieten leistungsfähiger sein, als Menschen. Im Prinzip können sie uns in allen Tätigkeiten, die sich formell eindeutig beschreiben lassen, überflügeln. Deshalb gibt es Experten, die an eine potenziell höhere Entwicklungsstufe der KI glauben. Das sind diejenigen, die in den mathematischen Gesetzmäßigkeiten, welche die Naturwissenschaft schafft, nicht nur Erklärungsmodelle sehen, sondern wahrhaftige (oder Gott gegebene) Naturgesetze.
Doch selbst wenn dies zutreffen sollte, würde es gesellschaftlich und ökonomisch mehr Sinn ergeben, die Tätigkeiten, für die Maschinen gebraucht werden, nicht genauso wie Menschen auszuführen. Vielmehr sollten sie dann auch weniger fehlerbehaftet, schneller, genauer, günstiger - kurz, einfach besser erledigt werden.
Die Beispiele aus der Mechanik zeigen, dass künstliche Fahr- und Flugapparate den lebendigen zumindest bezüglich Geschwindigkeit und Kraft überlegen sind, weil sie neue Flug- und Fahrmethoden umsetzen. Auf der anderen Seite gibt es noch immer keinen Motor, der die Energieeffizienz natürlicher Muskeln erreicht.
Literaturhinweise:
[[Vgl Karl R. Popper, John C. Eccles: "Das Ich und sein Gehirn", Piper 1977 und Martin Carrier, Jürgen Mittelstraß: "Geist, Gehirn, Verhalten", Walter de Gruyter, 1989]]
[http://www.theroboticschallenge.org/]], siehe [[http://live.curiositystream.com/]