Risiko Bias

Warum Verzerrungen KI gefährden

26.11.2020
Von   IDG ExpertenNetzwerk

Konrad Krafft ist Gründer und Geschäftsführer des Beratungs- und Softwarehauses doubleSlash Net-Business GmbH. Er hat Allgemeine Informatik mit Schwerpunkt Künstliche Intelligenz studiert und beschäftigt sich seit über 20 Jahren mit der Entwicklung digitaler Services, insbesondere im Bereich von Unternehmensprozessen und Softwareprodukten. Als Experte befasst er sich mit der Industrialisierung von Software-Entwicklung und neuen digitalen Geschäftsmodellen.

KI-Anwendungen sind nicht nur eine Angelegenheit für Programmierer. Es geht auch um Verhaltenspsychologie, Soziologie – und ethisch-moralische Fragen.
  • Programmierer sind auch nur Menschen, die in ihren Filterblasen stecken. Sie müssen lernen, dies zu erkennen und unvoreingenommen die richtigen Daten für Algorithmen bereitzustellen.
  • Entwickler werden ein ethisch-moralisches Fundament brauchen, um KI zu programmieren.
KI-Algorithmen sind nur so gut, wie die ihnen zugrundeliegende Datenbasis.
KI-Algorithmen sind nur so gut, wie die ihnen zugrundeliegende Datenbasis.
Foto: Sarah Holmlund - shutterstock.com

Es ist noch keine zehn Jahre her, als der Internetaktivist Eli Pariser die Filterblase, so sein gleichnamiges Buch, in die medienwissenschaftliche Diskussion einführte. Gemeint ist damit die filternde, Vielfalt einschränkende Wirkung von KI-Algorithmen in Suchmaschinen und sozialen Netzwerken. Damit sorgen Programmierer dafür, dass Online-Nutzer vorwiegend Zugang zu Informationen und Meinungen haben, die ihrem Such- und Klickverhalten entsprechen.

So bekommen Menschen irgendwann überwiegend das zu sehen, was ihr Weltbild bestätigt. Das verengt zwangsläufig ihren Horizont und verfestigt vorhandene Standpunkte, weil diese kaum durch andere Positionen oder gegensätzliche Meinungen hinterfragt oder gar in Zweifel gezogen werden. Der Sinn hinter diesen durch KI-Algorithmen erzeugten Meinungsblasen ist klar: Die Betreiber der Online-Plattformen können so die Akzeptanz der User für ihr Angebot und damit deren Verweildauer und -bereitschaft steigern. Genauso funktionieren viele digitale Geschäftsmodelle.

Kognitive Verzerrungen eingebaut

Problematisch wird die Filterblase dort, wo sie kognitiven Verzerrungen Vorschub leistet (Cognitive Bias), also einer sys­tematisch eingeschränkten und damit fehlerhaften Wahrnehmung. So begrenzen Filterblasen letztlich den Denkhorizont und führen zu Urteilen, die den tatsächlichen Gegebenheiten nicht gerecht werden.

Problematisch ist diese Entwicklung vor allem deshalb, weil das Informationsangebot im Internet die Meinungsbildung weltweit maßgeblich prägt. Die derzeit zu beobachtende Tendenz zur verstärkten Frontenbildung zwischen gesellschaftlichen Gruppen mag zum Teil auf Filterblasen zurückzuführen sein. Je mehr sich der Mensch in seinem Weltbild bestätigt sieht, desto eher ist er geneigt, dieses für das einzig richtige zu halten.

Um allerdings den Herausforderungen einer zunehmend komplexen, globalisierten Welt gewachsen zu sein, brauchen wir einen weiten Horizont und Toleranz gegenüber anderen Sichtweisen - keine verzerrten Weltbilder. Vor diesem Hintergrund sind die Algorithmen, die zu Filterblasen führen, zwar erfolgreich im Sinne ihrer Erfinder, nicht jedoch im Sinne des Gemeinwohls.

Je mehr Daten, desto besser das Ergebnis

Die Entwickler von KI-Systemen wissen: Ein Algorithmus wird besser und fehlertoleranter, je mehr Daten ihm zur Verfügung stehen. Mangelhafte Datensätze oder ein zu kleiner Umfang an Daten führen zwangsläufig zu fehlerhaften Ergebnissen, weil sie nur einen Teil der Wirklichkeit abbilden. Der ausgeblendete Teil kann in die Entscheidungsfindung nicht einfließen.

Wollen wir also KI-Systeme wirklich intelligent gestalten, müssen wir ihr Lernverhalten so offen wie möglich gestalten und Verzerrungs- oder Bias-Effekte minimieren. Und wenn die Algorithmen ethisch-moralische Kriterien in ihr Lernen und ihre Entscheidungen einbeziehen sollen, dann müssen wir sie mit solchen Kriterien "füttern". Schon heute sind KI-Algorithmen im Einsatz, die etwa Personalabteilungen bei der Auswahl von Bewerbern oder Ärzte bei der Beurteilung von Krankheitsbildern unterstützen. Es ist nur noch eine Frage weniger Jahre, bis Künstliche Intelligenz fast alle Lebensbereiche erreicht hat.

Wie Bias-Effekte zu falschen oder gesellschaftlich unerwünschten Ergebnissen führen können, zeigt ein Beispiel aus den USA: Um die Gesundheitsversorgung effektiver aufzustellen, setzten dort viele Kliniken und Krankenversicherer bis vor kurzem ein KI-Programm ein, das, wie sich später zeigte, afroamerikanische Patienten massiv benachteiligte. Die Software identifizierte Patienten mit besonderem Pflegebedarf und schlug sie für weiterführende Behandlungen vor. Aufgrund falsch ausgewählter Ausgangsdaten empfahl das KI-System, wie eine im Oktober 2019 veröffentlichte Studie zeigt, schwarze Patienten viel seltener für besondere Pflegeaufwendungen als weiße, obwohl die Schwere der Krankheit vergleichbar war.

Historisch verzerrte Trainingsdaten

Oft entstehen Bias-Effekte auch, weil für die Entwicklung der Algorithmen historische Daten herangezogen werden, die in sich bereits Verzerrungen aufweisen, ohne dass es den Verantwortlichen bewusst ist. So schlug ein von Amazon eingesetztes KI-Programm zur Bewertung von Bewerberinnen und Bewerbern überdurchschnittlich oft weiße Männer für eine Einstellung vor. Der Grund: Weil das Unternehmen fast nur weiße Männer beschäftigt hatte, waren die Daten dieser Mitarbeiter nahezu der alleinige Maßstab für künftige Einstellungen. Die Erfahrungen mit ihnen mussten zwangsläufig am besten ausfallen.

Aufgrund solch falscher Ergebnisse durch gesellschaftshistorisch verzerrter Trainingsdaten hat sich in der KI-Szene der Begriff "WEIRD Samples" eingebürgert. Weird, das englische Wort für seltsam oder schräg, steht hier als Akronym für "Western, Educated, Industrialized, Rich and Democratic societies".

Computer, die mit selbstlernenden Algorithmen ausgestattet sind, verhalten sich im Prinzip wie Kinder. Basis ihres Lernens sind die Daten, mit denen sie gefüttert werden. Lernen die Maschinen unkontrolliert oder auf einer fehlerhaften Basis, entstehen Risiken, die in der Regel kaum einschätzbar sind und meistens erst bei groben Fehlern überhaupt erkannt werden. Wer solche Algorithmen programmiert, sollte deshalb abschätzen können, was die Maschine auf lange Sicht aus ihrem "Futter" macht.

Programmier-Know-how allein reicht nicht mehr

Daraus ergeben sich neue Anforderungen an die IT-Ausbildung. KI-Spezialisten brauchen neben Programmierkenntnissen künftig auch eine Art ethische Grundausbildung. Sie müssen lernen, ihre Arbeit nicht nur am Interesse ihres Auftraggebers, sondern auch am Gemeinwohl auszurichten. Dazu gehört zunächst ein Verständnis davon, wie es überhaupt zu kognitiven Verzerrungen im menschlichen Denken und zu Bias-Effekten in Algorithmen kommen kann. Das müssen KI-Programmierer künftig zumindest im Ansatz verstehen, um ihre eigene Voreingenommenheit besser zu erkennen.

Wer also Informatik studiert, sollte auch lernen, beim Entwickeln von KI-Systemen Fragen wie die folgenden im Blick zu haben:

  • Kann ein Verzerrungseffekt entstehen?

  • Wenn es zu einer Verzerrung käme, welche Auswirkungen hätte diese? Welcher Schaden könnte entstehen?

  • Gibt es für meine Anwendung passende Tests, um Bias-Effekte aufzuspüren?

Sinnvoll wäre es, Bias-Tests explizit in KI-Software einzubauen und so grundlegende Kontrollen zu institutionalisieren - entsprechend dem schon heute in der Programmierung geltenden Prinzip der Peer-Review (Vier-Augen-Prinzip). Hier sollten auch ethische Regeln einfließen.

Bias-Effekte im menschlichen Denken

In der Verhaltensforschung kennt man unterschiedliche Mechanismen, die zu kognitiven Verzerrungen führen. Der sogenannte Halo-Effekt (von englisch Halo = Heiligenschein) zum Beispiel beschreibt die menschliche Tendenz, Personen, die wir positiv wahrnehmen, etwa weil sie gut aussehen oder freundlich und eloquent auftreten, auch andere positive Eigenschaften zuzuschreiben - zum Beispiel Großzügigkeit, Toleranz oder Fairness.

Im Zusammenhang mit den bereits erwähnten WEIRD Samples spielt immer wieder auch der "Ingroup Bias" eine Rolle. So ist es zutiefst in unserem Denken verankert, dass wir Menschen, die wir zu unserer eigenen Gruppe zählen, positiver wahrnehmen als Mitglieder einer Gruppe, der wir uns nicht zugehörig fühlen.

In die gleiche Richtung weist unser Hang zur Stereotypisierung. Um komplexe Sachverhalte oder Menschen einordnen zu können, greifen wir zu Stereotypen (Beispiel: "Die Deutschen sind pünktlich, fleißig und haben keinen Humor"). Dass wir damit den tatsächlichen Gegebenheiten nicht immer gerecht werden, liegt auf der Hand.

Zu den besonders wirkmächtigen Verzerrungsmechanismen gehört der Bestätigungs-Bias (Confirmation Bias). Er beruht darauf, dass wir vor allem Informationen Glauben schenken, die unsere Sicht der Dinge bestätigen. Die eingangs beschriebene Filterblase im Internet wirkt auch deshalb so stark, weil sie auf dem Bestätigungs-Bias aufsetzt, der uns allen zueigen ist.

Metaebenen im Blick

Wer KI-Systeme programmiert, sollte also diese Effekte kennen und in der Lage sein, das eigene Denken so weit wie möglich von Verzerrungen frei zu machen, sich also einem "Debiasing" zu unterziehen. Dazu ist es wichtig, sich Grundwissen über das Entstehen und Wirken kognitiver Verzerrungen anzueignen und die Metaebenen in den Blick zu nehmen. Es gilt, die eigenen Denkmechanismen zu durchleuchten und im Sinne eines Debiasing zu trainieren. Zum anderen müssen sich Programmierer bewusst machen, wie die Maschine lernt, wie sie also mit den einmal programmierten Codes arbeitet und welche Effekte das nach sich ziehen kann.

Idealerweise sollte die Maschine sogar lernen, ihr eigenes Lernverhalten zu korrigieren. Wobei sich auch hier wieder die Frage stellt, nach welchen Kriterien sie das tut. Da sich KI-Algorithmen im Grunde wie Kinder verhalten, sollten wir ihnen ähnliche Lernvoraussetzungen bieten: Verantwortungsbewusste Eltern sind in der Regel gewissenhaft, wenn es um die vermittelten Lerninhalte in Kitas, Kindergärten und Schulen geht. Wer sich wünscht, dass die Kinder zu fairen, vorurteilsfreien und sozialen Wesen heranwachsen, schaut genau hin, wie sie lernen. Das betrifft nicht nur die klassische Bildung in der Schule, sondern auch beispielsweise die Mitgliedschaft im Sport- oder Musikverein. Dort lernen Kinder eben nicht nur Fußball oder Klavier spielen, sondern auch soziales Verhalten. Genau das ist auch für KI-Systeme sinnvoll.

Die fünf Schulen maschinellen Lernens

Welche Lernprinzipien hinter den Algorithmen stecken und wie (maschinelles) Wissen überhaupt entsteht, das hat der Informatiker Pedro Domingos von der University of Washington untersucht. Daraus hat er fünf Schulen des maschinellen Lernens abgeleitet.

  • Die Konnektionisten folgen dem Funktionsprinzip des Gehirns und dessen Synapsenbildung. Das Ergebnis sind neuronale Netzwerke, in denen Informationen miteinander verknüpft und anhand ihrer Zusammenhänge plausibilisiert werden. Deep Learning, das auf mehreren neuronalen Schichten basiert, entspringt dieser Schule.

  • Die Symbolisten arbeiten nach dem Prinzip der Logik. Dabei wird zum Beispiel aus zwei Prämissen eine zwingende Konsequenz abgeleitet. Grundidee der Symbolisten ist es, dieses Prinzip umzudrehen und aus der Konsequenz auf die zunächst noch unbekannte Prämisse zu schließen. Auf dieser Basis kann ein Computer Hypothesen formulieren und Experimente entwickeln.

  • Vom grundlegenden Lernprinzip der Natur, der Evolution, gehen die Evolutionisten aus. Ein auf dieser Schule basierendes Softwareprogramm simuliert die natürliche Selektion: Was sich in der virtuellen Welt bewährt, bleibt erhalten, seine Merkmale werden an die nächste Generation weitergegeben.

  • Die Bayesianer gründen ihr Vorgehen auf dem Theorem des englischen Mathematikers Thomas Bayes. Das Lernen ist hier eine Annäherung an die höchste Wahrscheinlichkeit, indem Hypothesen an neue Beobachtungen angepasst werden. Mit Bayesschen Netzen prognostizieren zum Beispiel autonome Fahrsysteme ungewisse Ereignisse im Straßenverkehr.

  • Die Analogisierer suchen bei neuen Informationen nach Ähnlichkeiten zu bereits eingeordneten Daten oder Beobachtungen. Der sogenannte Nearest-Neighbor-Lernalgorithmus, der dieser Schule entspringt, ordnet eine neue Beobachtung jener Kategorie zu, die die meisten ähnlichen Fälle enthält. Zumindest ein Teil der Internet-Filterblase ist das Ergebnis von Empfehlungssystemen auf Basis dieser Schule. Sie bieten dem User Informationen, Filme oder Musik aus einer ihm bereits vertrauten Kategorie an.

Besonders anfällig für Bias ist nach heutigem Wissensstand das Deep Learning. Jedoch ist keines der genannten fünf Lernprinzipien frei von Verzerrungseffekten. Der Grund ist einfach: Wir Menschen selbst verzerren die Wirklichkeit, die Bias-Problematik ist untrennbarer Bestandteil unseres Wahrnehmens, Denkens und Handelns.

Dem Gemeinwohl dienen

Klar ist: Die Entwickler künstlich intelligenter Systeme werden in Zukunft weit mehr können müssen als nur das Programmieren von Algorithmen. Sie müssen die langfristigen Folgen ihrer Arbeit abschätzen können - und zwar nicht nur im Sinne ihres Auftraggebers, sondern auch im gesamtgesellschaftlichen Kontext. Sie müssen nicht nur wissen, wie ihre Maschine tickt, sondern auch wie sie selbst als Menschen funktionieren und was der menschlichen Gemeinschaft dient.

Hilfreich für die Einordnung dessen, was KI darf und was nicht, sind übrigens die drei von Isaac Asimov 1942 postulierten Robotergesetze:

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Ähnliche Ansätze wie die von Asimov bereits vor fast 80 Jahren formulierten Robotergesetze gibt es heute in einigen Großunternehmen und internationalen Konzernen im Zusammenhang mit KI. So hat die BMW Group einen Ethik-Kodex für KI entwickelt. Damit, so der Autobauer, wolle man sicherstellen, dass KI-Technologien auf ethische und effiziente Weise angewendet werden. Microsoft hat für sich und seine Mitarbeiter sechs Grundsätze für KI und Ethik aufgestellt.

Microsofts Ethikprinzipien für KI

Diskriminierungsfreiheit: Wir setzen uns dafür ein, dass künstliche Intelligenz alle Menschen fair behandelt.
Zuverlässigkeit: Wir arbeiten daran, dass künstliche Intelligenz zuverlässig und sicher ist.
Schutz der Privatsphäre: Wir wollen künstliche Intelligenz, die Datenschutz und Datensicherheit gewährleistet.
Barrierefreiheit: Wir stehen für künstliche Intelligenz, die allen Menschen zu Gute kommt.
Transparenz: Künstliche Intelligenz muss uns ihre Entscheidungen erklären.
Verantwortlichkeit: Künstliche Intelligenz darf nur den Einfluss haben, den wir ihr zugestehen.

Noch gibt es keinen vom Gesetzgeber oder einem Industrieverband verbindlich vorgeschriebenen Standard. Die Regeln aber, die sich Unternehmen wie die genannten gegeben haben, gehen in die richtige Richtung. Angesichts der rasanten Entwicklung künstlicher Intelligenz ist es an der Zeit, dass wir als menschliche Gemeinschaft Regeln definieren, welche ethischen Standards ein KI-Code erfüllen muss. Diese Regeln müssen in die Ausbildung von KI-Experten einfließen.

Wir neigen bei mangelhafter Informationslage zu falschen Annahmen und gehen dabei meist vom höchsten Risiko für uns selbst aus. Das Ergebnis ist, dass sich der Mensch häufig fragt, ob ihm ein anderer Mensch, eine andere Gruppe schaden könnte. Wird dieses Risiko bejaht, führt das fast automatisch zu einem Verteidigungs- oder Angriffsverhalten, das auf falschen Annahmen beruht und daher bei besserer Informationslage vermeidbar wäre.

Künstliche Intelligenz kann dem Informationsdefizit der Menschheit entgegenwirken. Voraussetzung: Sie wird offen programmiert und verantwortungsvoll eingesetzt. (hv)