Eines Tages wird die künstliche Intelligenz (KI) die menschliche Intelligenz überholt haben. Dann wird es zu spät sein. Verblendet von den Verheißungen der KI werden wir den Robotern die Verantwortung für alle kritischen Systeme in unserer Gesellschaft übertragen. Von der Energieversorgung über das Kommunikationswesen bis hin zu unserer Verteidigungsinfrastruktur – die Maschinen werden alles kontrollieren. Und wenn sich die Maschinen schließlich erheben, werden sie alles gegen uns verwenden.
Beunruhigt? Keine Sorge. So schlimm wird es wohl nicht werden. Selbst wenn eine KI zu einem fühlenden Wesen werden sollte – was im Übrigen noch absolute Zukunftsmusik ist – warum sollte diese Eigenschaft automatisch den Willen zur Dominanz mit sich bringen? Warum sollte KI ohne genetisch verankerten Drang zur Reproduktion und ohne Hormonsystem zur Produktion von Adrenalin oder Testosteron Aggressionen entwickeln? Intelligenter KI könnte es sogar am Selbsterhaltungstrieb mangeln.
Dann irre statt böse?
Wir sollten uns also alle entspannen und lernen, die Maschinen zu lieben, oder? Unsere Angst vor KI ist unbegründet. Ich bin nicht Neo. Sie sind nicht Sarah Connor. Also hören wir auf so zu tun als ob, und fangen wir damit an, KI überall dort einzusetzen, wo es möglich ist. Dann profitieren wir alle davon.
Doch nicht so schnell. Die Angst vor der Revolution der Roboter mag übertrieben sein. Das bedeutet jedoch nicht, dass der Aufstieg von KI völlig bar aller Risiken ist. Künstliche Intelligenz wird entwickelt, um Probleme zu lösen. Sie verfügt in der Regel über keinerlei moralischen Kompass.
Lesetipp: Künstliche Intelligenz - auch eine Frage der Ethik
Wenn wir bei der Beschreibung des Problems, das die KI lösen soll, keine gute Arbeit leisten, könnte diese KI verheerende Schäden anrichten. Und zwar nicht, weil sie ein Selbstbewusstsein entwickelt hätte oder eine böse Absicht dahinterstecken würde. Sondern aus dem einfachen Grund, dass sie genau das tut, was wir ihr aufgetragen haben.
Übertragung unserer Eigenschaften
KI könnte zu einem Problem werden, weil wir sie mit unseren eigenen Eigenschaften ausstatten. Das wäre auf verschiedenen Wegen möglich. Wir könnten die KI trainieren, ohne dabei Verzerrungen in den Trainingsdaten zu korrigieren.
Wenn Daten beispielsweise anscheinend zeigen, dass die Einwohner von Stadt A häufig mit ihrer Kreditschuld im Rückstand sind, könnte die KI daraus schließen, dass sie ein Kreditrisiko darstellen, selbst wenn genauere Daten gezeigt hätten, dass es sich dabei vielmehr um einen Fall von Kausalität als um einen Fall von Korrelation handelt.
Von noch größerer Bedeutung ist es wahrscheinlich, dass wir ein Problem unbewusst auf eine Art und Weise definieren könnten, die Verzerrungen in die Problemlösungsmethode der KI einbaut. Wenn unsere Problemdefinition für einen KI-Spamfilter zum Beispiel Variablen enthält, die für eine „nigerianische” Mail typisch sind, so würde die KI höchstwahrscheinlich auch mit sorgfältig ausgewählten Trainingsdaten E-Mails von einer nigerianischen IP-Adresse fälschlicherweise als Spam deklarieren. Das wäre legitimen nigerianischen Unternehmen und gesetzestreuen nigerianischen Verbrauchern gegenüber äußerst unfair.
Derartige Risiken sind keinesfalls rein theoretischer Natur. Es gab bereits Fälle, in denen KI und Tools, die auf maschinellem Lernen basieren, Personen nachweisbar diskriminiert haben, nur weil diese Systeme schlecht eingestellt oder mit verzerrten oder unvollständigen Daten trainiert worden waren.
Im Jahr 2016 gab der New Yorker Supreme Court Lehrern Recht, die geklagt hatten, weil sie sich von einer KI-basierten Lehrerbewertungssoftware ungerechtfertigt schlecht beurteilt fühlten. Unter anderem stellten Ermittler fest, dass die Software eine Fehlerquote von 35 Prozent aufwies, da ihre Wertschöpfungsanalyse Kriterien wie Klassengröße und Fähigkeiten der Kinder nicht berücksichtigt hatte.
In einem Gespräch mit dem Regisseur Werner Herzog über schlechte KI-Aufgabendefinition nannte Tesla-Gründer und KI-Skeptiker Elon Musk ein überzeugendes Beispiel: Angenommen, eine KI wurde damit beauftragt, den Wert eines Anlageportfolios zu maximieren. Nehmen wir außerdem an, dass der Schöpfer der KI nicht eindeutig spezifiziert hat, wie dieses Ziel zu erreichen ist. Theoretisch könnte die KI in diesem Fall verstärkt in Rüstungsaktien investieren und so im schlimmsten Fall einen Krieg provozieren.
Was bedeutet das für Fintech?
Fintech ist gegenüber diesen Problemen nicht weniger anfällig als jeder andere Bereich, in dem KI eingesetzt wird. Wenn die Branche nicht die notwendigen Maßnahmen ergreift, um Verzerrungen in den Algorithmen zu vermeiden, die bestimmen sollen, wer zu welchen Bedingungen Zugriff auf Finanzservices hat und wer nicht, dann könnten die Folgen sowohl für die Betroffenen als auch für die gesamte Finanzbranche katastrophal sein.
Hier ein theoretisches Beispiel: Laut einem Bericht der Joseph Rowntree Foundation aus dem Jahr 2017 entstammen 70 Prozent der in der Londoner Innenstadt in Armut lebenden Personen einer ethnischen Minderheit. Würde ein Unternehmen es seiner KI erlauben, die ethnische Zugehörigkeit potenzieller Kunden zu kennen und ihr nicht auftragen, die Ethnie bei der Eignung für ein bestimmtes Finanzprodukt nicht zu berücksichtigen, könnte die KI fälschlicherweise darauf schließen, dass die Zugehörigkeit zu einer ethnischen Minderheit als Risikofaktor zu werten ist und solche Minderheiten somit diskriminieren.
Die Auswirkungen auf die Kunden, auf das öffentliche Vertrauen in dieses Unternehmen und in den Wert der Unternehmensmarke wären verheerend. Und das zu Recht. Niemand möchte dieses Unternehmen sein. Daher müssen wir als Branche die Risiken einer schlechten KI-Umsetzung und die Risiken von Verzerrungen in den Algorithmen ernst nehmen. Tun wir das nicht, riskieren wir einen Eklat, der sowohl den Kunden als auch der Fintech-Branche schweren Schaden zufügt.
KI in Deutschland |
Mehr zu diesem Thema:
Internet of Payments verändert unser Leben