Die Chancen und Herausforderungen von Künstlicher Intelligenz müssen von Gesetzgebern stets abgewogen und in Einklang gebracht werden. In Bezug auf das Diskriminierungspotenzial von KI treten bei maschinellem Lernen neue Herausforderungen auf: Denn im Unterschied zu herkömmlichen Wenn-Dann-Operationen treffen selbstlernende Systeme eigenständig Entscheidungen, teilweise auch zu gänzlich unvorhersehbaren Situationen. Dieses maschinelle Lernen erfolgt auf der Basis von Datensätzen. Der Rahmen der Ergebnismöglichkeiten ist im Vergleich zu Wenn-Dann-Systemen nicht begrenzt, wodurch sich auch das Diskriminierungspotenzial verändert.
Diskriminierung durch selbstlernende KI
Ein konkretes Beispiel sind Bewerbungs-Tools, die automatisch auf Datensätze eines Unternehmens zugreifen, um bei großen Mengen von Bewerbungen eine Vorauswahl treffen zu können. Der Nachteil: Recherchen zufolge können äußere Merkmale der Bewerber, wie Brille, Kleidung oder Kopfbedeckung, das Ergebnis einer solchen KI deutlich beeinflussen.
Unabhängig von Äußerlichkeiten könnte ein solcher Algorithmus aber beispielsweise auch zu dem Schluss kommen, dass Männer zuverlässigere Arbeitskräfte sind, wenn diese im betreffenden Unternehmen in der Vergangenheit statistisch seltener gefehlt hatten. Mutterschutz und Kindererziehungszeiten, die vor allem Frauen in Anspruch nehmen, rechnet die KI nicht automatisch heraus, solange sie nicht entsprechend programmiert ist. Da Programmierer unmöglich alle Ergebnisse und Auswahlkriterien einer selbstlernenden KI im Vorfeld berücksichtigen können, muss KI deshalb stetig auf ihr Diskriminierungspotenzial hin überprüft werden. Je mehr Datenpunkte dabei vorhanden sind, desto geringer ist die Wahrscheinlichkeit für eine Diskriminierung beziehungsweise für eine systematische Voreingenommenheit.
Wird eine systematische Benachteiligung bestimmter Personengruppen erkannt, ist ein Zurücksetzen oder Umprogrammieren der entsprechenden Software nur schwer möglich, wenn sich diese selbst weiterentwickelt. In der Regel muss das gesamte Programm dann entfernt werden. "Fehler" zu erkennen, gestaltet sich hier ebenfalls schwierig, denn der Datensatz muss nicht automatisch falsch sein. Er kann schlicht auch einfach unzureichend sein. Bei Fällen von Diskriminierung stellt sich außerdem die Frage: Ist die Entscheidung der Maschine aus technischer Sicht falsch, oder ist sie einfach unvereinbar mit unseren ethischen Grundsätzen?
Um solchen Fehlern vorzubeugen, ist der maschinelle Aufbau eigener Risikomechanismen möglich. Diese können ungewünschte Nebeneffekte wie eine Diskriminierung minimieren, wenn die Maschine selbst erkennen kann, ob sie durch Algorithmen zu einer Entscheidung kommt, die bestimmte Personengruppen kategorisch ausschließen. Dies würde einen risikobewussteren Einsatz von selbstlernender KI ermöglichen.
- 1. Datenmangel
Datenprobleme gehören zu den häufigsten Gründen für das Scheitern von Artificial-Intelligence-Initiativen. Das belegt auch eine Studie des Beratungsunternehmens McKinsey, die zu dem Schluss kommt, dass die beiden größten Herausforderungen für den KI-Erfolg mit Daten in Zusammenhang stehen. <br /><br /> Demnach haben viele Unternehmen einerseits Probleme damit, ihre Daten richtig einzuordnen, um die Machine-Learning-Algorithmen korrekt programmieren zu können. Wenn Daten nicht richtig kategorisiert werden, müssen sie manuell richtig klassifiziert werden – was oft zu zeitlichen Engpässen und einer erhöhten Fehlerrate führt. Andererseits stehen viele Unternehmen vor dem Problem, nicht die richtigen Daten für das anvisierte KI-Projekt zur Verfügung haben. - 2. Training, das ins Leere läuft
Laut einer Untersuchung von PricewaterhouseCoopers verfügt mehr als die Hälfte der befragten Unternehmen über keinen formalen Prozess für das vorurteilsfreie Training von KI-Systemen. Schlimmer noch: Nur 25 Prozent der befragten Unternehmen würden demnach die ethischen Implikationen eines Artificial-Intelligence-Systems vor der Implementierung priorisieren. <br /><br /> Unternehmen steht eine Vielzahl von Bilddaten-Sets zu Trainingszwecken zur Verfügung – sowohl auf kostenloser als auch auf kommerzieller Basis. Dabei sollten Firmen allerdings unbedingt darauf achten, dass ein solches Datenset auch die für ihre Zwecke relevanten Daten enthält. - 3. Problemfall Datenintegration
In manchen Fällen ist nicht Datenmangel die wesentliche Hürde für den Einsatz von Künstlicher Intelligenz, sondern das genaue Gegenteil: zu viele Daten – an zu vielen Orten. <br /><br /> Solche Datenintegrations-Fauxpas können sich nachhaltig negativ auswirken. Dabei geht es nicht in erster Linie um technische Hürden, sondern beispielsweise darum, Compliance- und Datenschutzanforderungen gerecht zu werden. - 4. Datenunterschiede
Wenn Unternehmen für das Training von Artificial-Intelligence-Systemen nicht auf aktive, transaktionale sondern auf historische Daten zurückgreifen, entstehen Probleme. Denn ein System, das auf Grundlage eines historischen Snapshots trainiert wurde, wird im Zusammenspiel mit Echzeit-Daten nicht besonders zuverlässig performen. <br /><br /> Nach Ansicht von Andreas Braun, Managing Director und Partner bei der Boston Consulting Group, können Sie diese Problemstellung vermeiden, indem Sie Ihre Data Scientists aus dem Silo holen: Insbesondere wenn es um KI-Modelle geht, die mit Live-Daten arbeiten, bietet sich eine direkte Integration in die Produktionsumgebung an – diese geht im Regelfall auch wesentlich schneller vonstatten. - 5. Unstrukturierte Daten
Laut einer aktuellen Umfrage von Deloitte verlassen sich 62 Prozent der Unternehmen immer noch auf Spreadsheets – nur 18 Prozent profitieren bereits von unstrukturierten Daten wie Produktbilder, Audiodateien von Kunden oder Social-Media-Kommentare. Dazu kommt, dass viele der historischen Datensätze in Unternehmen den für den KI-Einsatz nötigen Kontext vermissen lassen. <br /><br /> Dabei kommt das Beratungsunternehmen auch zu der Erkenntnis, dass Unternehmen, die unstrukturierte Daten nutzen, ihre Geschäftsziele im Schnitt um 24 Prozent übertreffen konnten. - 6. Kulturelle Mangelerscheinungen
Daten außen vorgelassen, sind es vor allem organisatorische Herausforderungen, die dem Erfolg mit Künstlicher Intelligenz entgegenstehen. Die Mitarbeiter aus den Fachbereichen müssen direkt mit den Kollegen aus der Technik zusammenarbeiten und der übergeordnete Kontext sollte dabei stets im Fokus stehen.
Die Haftungsfrage
Bei Bewerbungen tritt eine Diskriminierung durch selbstlernende KI insbesondere über Kategorien wie Geschlecht, Hautfarbe, Religion oder Behinderung auf. Wird eine solche Diskriminierung bekannt, haben Betroffene die Möglichkeit, auf zivilrechtlicher Basis eine Unterlassung und Schadensansprüche zu verlangen. Diese richten sich dann nicht gegen die KI, sondern gegen den Einsetzenden der KI. Grundsätzlich bietet auch das Grundgesetz einen Schutz vor Diskriminierung. Außerdem findet vor allem im Arbeitsrecht das Allgemeine Gleichbehandlungsgesetz (AGG) Anwendung, das seit 2006 die Vertragsfreiheit im Bereich der (Un-)Gleichbehandlung einschränkt.
Die Datenschutzgrundverordnung (DSGVO) bietet durch Art. 22 gewissermaßen eine Präventivmaßnahme. Diese Vorschrift erlaubt keine vollautomatisierten Entscheidungen, wenn diese rechtliche Wirkungen für den Betroffenen entfalten oder ihn anderweitig erheblich beeinträchtigen. Eine natürliche Person muss, jedenfalls bei Entscheidungen, die für den Betroffenen einen Nachteil mit sich bringen, daher immer als Kontrollinstanz an der Entscheidung beteiligt sein. Im Bewerbungsverfahren dürfen HR-Verantwortliche die Auswahl der Bewerber daher nicht allein einem Algorithmus überlassen.
Eigene Regularien, die sich ausschließlich auf KI beziehen, gibt es bisher nicht. Wenn eine Entscheidung von der Rechtsordnung nicht toleriert wird, ist es aber gleichgültig, wie die Entscheidung zustande gekommen ist. Liegt eine Diskriminierung vor, ist diese nicht rechtens, unabhängig davon, ob eine natürliche Person, ein Unternehmen, oder eine Maschine "dahintersteht".
Rechtliche Rahmenbedingungen wünschenswert
Der Bedarf nach ethischen Leitlinien für den Einsatz von Künstlicher Intelligenz ist in den letzten Jahren durch den zunehmenden Einsatz der Technologie gewachsen. Das Europäische Parlament hat im Herbst 2020 bereits eine entsprechende Verordnung für einen Rechtsrahmen gefordert und einen Vorschlag vorgelegt. Ein weiterer Vorschlag der Kommission, der bestehende Lücken im Schutz vor Diskriminierung füllen soll, wird noch 2021 erwartet. Solche rechtlichen Rahmenbedingungen durch Gesetzgeber könnten zukünftig zu verbesserter Anwendbarkeit von KI und damit zu einer größeren Akzeptanz in der Gesellschaft führen.