Im Mai letzten Jahres verschob Google die Maxime "Don't be evil" vom Anfang seines Verhaltenskodex' ans Textende. Die ursprüngliche Version am Textanfang lautete: "Don't be evil." Googlers generally apply those words to how we serve our users. (Deutsch:"Sei nicht böse." Googlers wenden diese Worte generell auf die Art und Weise an, wie wir unsere Nutzer bedienen.) Jetzt heißt es: And remember… don't be evil, and if you see something that you think isn't right - speak up! (Deutsch: Und denk daran… sei nicht böse, und wenn Du etwas bemerkst, von dem Du denkst, dass es nicht richtig ist - sag etwas!)
Warum ist das von Bedeutung? Weil sich die Gewichtung änderte. Was zunächst als ethische Grundlage für alle Geschäfte gültig war, ist jetzt eine nachgelagerte Verhaltensrichtlinie, an die am Textende erinnert wird. Zudem kritisieren Beobachter, dass Google diese Änderung stillschweigend vollzogen habe.
Fakt ist, dass zum fraglichen Zeitpunkt viele Mitarbeiter Anstoß am Projekt "Marven" genommen hatten. Google hatte mit dem US-Militär einen Deal geschlossen, demzufolge der Internet-Gigant Kampf-Drohnen mit künstlicher Intelligenz ausstatten sollte. Das hielten mehr als 3.000 Google-Mitarbeiter nicht mit den Unternehmensleitlinien vereinbar. Manche verließen das Unternehmen. Google hat mittlerweile von dem Projekt Abstand genommen.
Hat Google gegen seine eigene Maxime verstoßen? Oder haben die Mitarbeiter das Motto einfach nur falsch verstanden? Eike Kühl, Autor von Zeit Online, vertrat in einem Kommentar für Golem bereits 2015 die Meinung, dass "Don't Be Evil nie als moralischer Kompass [getaugt habe], sondern […] die Rechtfertigung der eigenen [Googles - Anm. d. A.] Taten und Entwicklungen [war]."
Den Handlungen des Konzerns liege kein selbstauferlegtes moralisches Fundament zugrunde. Vielmehr sollte alles, was Google tut, durch den Verhaltenskodex von vornherein als "nicht böse" gelten. Das moralische Motto sei also vor allem als Signal an die Außenwelt zu verstehen gewesen.
Ob Kühls Interpretation den Tatsachen entspricht, liegt im Auge des Betrachters. In jedem Fall wirft das Beispiel einige Fragen auf: Brauchen Unternehmen einen digitalen Verhaltenskodex? Wenn ja, woran können sich die Verantwortlichen orientieren, wenn sie ihn definieren? Und schließlich: Wie lässt sich ein solcher Verhaltenskodex durchsetzen?
Brauchen Unternehmen einen digitalen Verhaltenskodex?
Digitale Technologien verändern die Welt, in der wir leben, arbeiten und konsumieren von Grund auf. Die Schnittmenge zwischen Mensch und Technologie wird immer größer. Das eröffnet zum einen nie dagewesene wirtschaftliche Chancen, zum anderen werden Menschen abhängiger von Technologie.
Deshalb spielt es natürlich eine Rolle, ob Unternehmen, die digitale Technologien entwickeln und einsetzen, deren Auswirkungen auf die Gesellschaft bedenken und sich an ethische Maßstäbe halten. Der Protest der oben erwähnten Google-Mitarbeiter zeigt, dass Menschen wissen wollen, woran sie für wen arbeiten und welche Auswirkungen das hat. Es gibt viele Berichte, wonach Top-Talente sich weigern, für Technologieanbieter zu arbeiten, weil sie deren Geschäftspraktiken nicht mit ihrem Gewissen vereinbaren können.
Zudem zeigen regulatorische Maßnahmen wie die Datenschutz-Grundverordnung (DSGVO), dass es Regeln braucht für die Art und Weise, wie Unternehmen Technologien nutzen und mit Daten umgehen. Digitale Informationsbeschaffung und -verarbeitung durch Unternehmen muss anscheinend unter Androhung harter Strafen reguliert werden, weil Unternehmen nicht automatisch das "Richtige" tun. So machen sich laut einer Umfrage von Selligent 75 Prozent der Befragten Sorgen darum, inwieweit Unternehmen ihr Online-Verhalten nachverfolgen können. Der belgische Anbieter einer Marketing-Automation-Plattform erhob die Meinungen von 7.000 Endkunden weltweit.
Die ethische Dimension des Business zu vernachlässigen, kann konkrete negative Konsequenzen haben. Know-how-Träger zu verlieren, führt möglicherweise dazu, dass das Unternehmen weniger wettbewerbsfähig ist, Marktanteile einbüßt und weniger Umsatz macht. Mindestens ebenso schädlich ist das Misstrauen der Kunden, die Zweifel am Umgang mit ihren Daten hegen.
Das Ethikproblem endet nicht an den Grenzen des eigenen Unternehmens. In einem globalisierten Markt können Services und Lösungen aus Komponenten verschiedener Anbieter bestehen. Daher haben auch Zulieferer und Geschäftspartner Anteil daran, wie ein Unternehmen wahrgenommen wird. Ein Verhaltenskodex, dem alle Beteiligten der Lieferkette verbindlich zustimmen, schafft Vertrauen der Mitarbeiter und Kunden in das Unternehmen.
Die Antwort lautet also: Unternehmen sollten über einen digitalen Verhaltenskodex nachdenken.
Daran sollte sich ein Verhaltenskodex orientieren
Das Google-Beispiel lässt ahnen, dass der Entwurf eines digitalen Verhaltenskodex' keine oberflächliche Angelegenheit ist. Welches Wertegerüst bildet die Grundlage der Regeln?
Gartner prognostiziert, dass künstliche Intelligenz (KI) im kommenden Jahr die Grenzen des Möglichen im digitalen Geschäft verschieben wird. Anwendungen, Services und Objekte im Internet of Things (IoT) werden durch KI intelligenter. Daher stößt diese Technologie momentan zahlreiche Diskussionen und Initiativen im Bereich der Unternehmens-Ethik an und ist ein guter Kandidat, um diese Fragestellungen zu konkretisieren.
Auf globaler Ebene werden Forderungen nach einem Werte-System für KI laut. So gründete sich Anfang August im Wien die internationale Open Community for Ethics in Autonomous and Intelligent Systems (OCEANIS). Die Motivation dahinter erklärte Michael Teigeler, Geschäftsführer des Verbands VDE/DKE: "Letztlich führt kein Weg daran vorbei, dass sich die internationale elektrotechnische Community Gedanken über das 'richtige' und 'falsche' Verhalten macht, auf das eine KI trainiert werden soll."
Dies zwinge Ingenieure dazu, Entscheidungen zu diskutieren, um die sie sich bisher "drücken" konnten. Die Branche müsse raus aus der technischen Komfortzone und in den Dialog mit Experten anderer Disziplinen, um gemeinsam ethische Leitlinien für KI zu entwickeln, die weltweit in der Elektro- und Informationstechnik akzeptiert würden.
Einen Versuch dieses "Richtig" und "Falsch" zu definieren unternahm der Europäische Wirtschafts- und Sozialausschuss (EWSA) bereits im Mai 2017 in Form einer Stellungnahme (PDF) zu den "Auswirkungen der künstlichen Intelligenz auf den (digitalen) Binnenmarkt sowie Produktion, Verbrauch, Beschäftigung und Gesellschaft". Darin fordert der Ausschuss explizit einen Verhaltenskodex für die Entwicklung, den Einsatz und die Nutzung von KI. Dieser soll gewährleisten, dass die folgenden Dinge während der gesamten Nutzungsdauer von KI-Systemen gewahrt bleiben:
Menschenwürde
Integrität
Freiheit
Schutz der Privatsphäre und Datenschutz
kulturelle und Geschlechtervielfalt
grundlegende Menschenrechte
Freiheit sowie grundlegende Menschenrechte sind relativ selbsterklärend und Datenschutz ist unter anderem durch die DSGVO umfassend geregelt. Die anderen drei Begriffe bedürfen jedoch näherer Betrachtung - sei es, weil ihre Bedeutung schwierig zu fassen ist oder aktuelle Entwicklungen sie in den Fokus der Aufmerksamkeit rücken.
Gemäß dem ersten Artikel des Grundgesetzes spielt die Menschenwürde in Deutschland eine zentrale Rolle. In seiner Eröffnungsrede zur Jahrestagung des Deutschen Ethikrates in diesem Jahr sagte Bundestagspräsident Wolfgang Schäuble, die Würde des Menschen stehe bei technologischen Fortschritten - unter anderem im Bereich KI - "über allem". Eine genaue Definition des Begriffs sprengt den Rahmen dieses Artikels und soll Rechtsexperten vorbehalten bleiben.
Wichtig ist aber, dass es der Grundsatz der unantastbaren Menschenwürde verbietet, den Menschen als Objekt zu betrachten. Das Bundesverfassungsgericht hat den Begriff Menschenwürde in einer Reihe von Entscheidungen detaillierter umrissen: sie bedeute einen Wert- und Achtungsanspruch, der dem Menschen kraft seines Menschseins zukommt, unabhängig von seinen Eigenschaften, seinem körperlichen oder geistigen Zustand, seinen Leistungen oder sozialem Status. Es geht also um die prinzipielle, unvoreingenommene Wertschätzung des Menschen.
Unter Integrität im ethischen Sinn versteht man die Übereinstimmung des eigenen Wertesystems mit dem tatsächlichen Handeln. Genau dieses Kriterium war scheinbar in den Augen der Google-Mitarbeiter im obigen Beispiel nicht gegeben.
Der Aspekt der kulturellen und Geschlechtervielfalt verdient an dieser Stelle gesonderte Aufmerksamkeit, da ein aktuelles Beispiel mögliche Tücken von KI aufzeigte. Amazons Personalabteilung wollte über ein KI-System Bewerbungen automatisiert vorsortieren. Der Algorithmus wurde mit den Bewerbungen der letzten zehn Jahre gefüttert. Da sich hauptsächlich Männer beworben hatten, schlussfolgerte die KI, dass die bevorzugten Kandidaten männlich seien und benachteiligte daher Frauen.
Um diese und ähnliche Probleme anzugehen, gründete sich dieses Jahr beispielsweise die Equal-AI-Initiative mit dem Ziel, bewusste und unbewusste geschlechtsspezifische Vorurteile in der KI zu beseitigen. Auch die französische Datenschutzbehörde Commission Nationale de l'Informatique et des Libertés (CNIL) sieht das Risiko solcher wertenden Tendenzen kritisch. Unter den ethischen Herausforderungen von KI, die die CNIL 2017 definierte, steht mögliche Diskriminierung an prominenter Stelle.
SAP subsummierte seinen Ansatz für einen Verhaltenskodex für KI in einem Satz: "Baue keinen Algorithmus, der etwas tut, was auch Menschen nicht tun sollten."