Keine technischen Fehlfunktionen – so lautete unlängst das Urteil der US-Verkehrsaufsichtsbehörde, die den tödlichen Unfall eines selbstfahrenden Tesla untersucht hatte. Also alles gut? Oder mal andersherum gefragt: Was wäre, wenn das Urteil anders ausgefallen wäre, weil die Technologie möglicherweise doch noch nicht reif für die öffentliche Anwendung war? Unabhängig von dem Tesla-Beispiel gilt: Am Ende des Tages sind es Menschen, die die Auswirkungen von Fehlern der Maschinen zu spüren bekommen und es sind auch Menschen, die dafür zur Rechenschaft gezogen werden.
Madeleine Clare Elish, eine US-amerikanische Wissenschaftlerin, die sich viel mit dem Thema künstliche Intelligenz befasst, nennt dies moralische Knautschzone („moral crumple zones“). Sie meinte damit Situationen, in denen wir zwar Maschinen die Kontrolle übergeben haben, die Auswirkungen von Fehlschlägen aber auf uns zurückprallen. Im Fall einer Schachpartie ist ein solcher „Fehlschlag“ von künstlicher Intelligenz (also deren Niederlage gegen einen Menschen) sicherlich noch sehr gut zu verkraften.
Aber was ist mit Situationen, in denen beispielsweise der Mitarbeiter einer Servicehotline den Frust eines Kunden abbekommt, weil ein Algorithmus eine automatisierte Entscheidung gegen diesen getroffen hat? Auch Situationen, die keine Gefahr für Leib und Seele darstellen, können mitunter entscheidende, beispielsweise finanzielle Auswirkungen für Unternehmen haben. Wie gehen wir also mit der fortschreitenden Entwicklung von KI-Technologien um?
Big Data: Wir müssen Daten lesen lernen
Technischer Fortschritt, auch im Bereich künstlicher Intelligenz ist wichtig, unterstützt er uns doch in vielen Situationen in Beruf und Alltag. Doch wenn wir weiterhin intelligente Maschinen als schnelle, automatisierte Entscheidungssysteme einsetzen möchten, dann müssen wir Mechanismen einbauen, die es vermeiden, dass wir in besagten moralischen Knautschzonen gefangen werden. Und dies meint nicht unbedingt die Gesetzgebung, vielmehr geht es um die Verantwortung eines jeden einzelnen. Nämlich wenn es um die Grundlage geht, auf der solche künstliche Intelligenz baut: Daten. Hierfür bedarf es die Entwicklung einer Kultur der Analytik. Ebenso wie wir im Laufe unseres Lebens laufen, sprechen und lesen lernen, muss auch die Lesefähigkeit für Daten erst entwickelt werden.
Letztlich müssen wir alle erfolgreich mit Daten lesen, arbeiten, analysieren und sogar diskutieren können, nicht nur Maschinen oder eine kleine Gruppe ausgewählter Data Scientists. Ein spannendes Beispiel aus dem Luftfahrtbereich ist die für den Airbus 320 neu entwickelte bionische Trennwand, die erheblich leichter, aber ebenso stabil wie die bisherige Wand zwischen Passagierbereich und Bordküche sein sollte.
Die Anforderungen an diese Trennwand wurden von den Designern vorgegeben, die tatsächlichen Designoptionen aber mithilfe von Cloud Computing von einer Software entwickelt. Diese konnte zunächst unzählige Konfigurationen testen (was manuell erheblich zeitintensiver gewesen wäre) und so in jedem Durchlauf lernen, was funktioniert und was nicht. Nach abschließenden Belastungstests wird die Neuentwicklung durch die Luftfahrtbehörde zertifiziert.
Es geht also um die richtige Balance zwischen Maschinenintelligenz und Menschenintelligenz. Wenn künstliche Intelligenz Ärzte dabei unterstützt, bessere Diagnosen zu erstellen, kann dies Menschen retten. Dennoch überprüfen Ärzte zum Schutz des Patienten die gestellten Diagnosen. Und auch in selbstfahrenden Autos sind derzeit immer Fahrer dabei.
Um „moralischen Knautschzonen“ zu vermeiden, ist es wichtig, Ergebnisse hinterfragen zu können. Oder die Datengrundlage bewerten zu können. Erst unter diesen Voraussetzungen sollten wir intelligente Maschinen einsetzen, um uns bei unseren täglichen Entscheidungen zu unterstützen und neue Arbeitsmethoden und Ideen schneller erforschen zu lassen, als wir es oft leisten können. (mb)