Wenn man es mit einer Frau zu tun bekommt, die ausgebildete Juristin und IT-Expertin ist, wird man etwas zurückhaltender. Könnte ein schwieriges Gespräch werden. Man wird hellhörig, wenn sie dann im Gespräch kritische Töne in Sachen Technikentwicklung auf dem Gebiet der IT und im Besonderen auf dem Feld der künstlichen Intelligenz anschlägt - und dies, obwohl sie Geschäftsführerin eines Unternehmens ist, das sich mit Big-Data- und KI-Lösungen beschäftigt. Wenn sie dann auch noch den regulatorischen Eingriff des Staats fordert, um dessen Bürger vor Techno-Konzernen zu schützen, die die Gesellschaften nämlich massiv verändern würden - und wenn diese Frau einem erzählt, dass sie ihre politische Sozialisation im Kloster bei den Englischen Fräulein erfuhr, weiß man: Jetzt wird es richtig spannend.
Es ist kaum nachvollziehbar, was in einem neuronalen Netz passiert
CW: Es ist ein eigenartiges Phänomen, dass die Diskussionen um Vor- und Nachteile der künstlichen Intelligenz (KI) auch bei Experten immer nur zu einem Entweder-Oder führen. Dazwischen scheint es nichts zu geben. Diejenigen, die in der KI-Entwicklung keine Probleme sehen, sagen, es seien ja die Menschen, die solche Systeme programmieren. Also habe der Mensch alles unter Kontrolle. Ergo könne von KI auch keine Gefahr ausgehen. Was sagen Sie dazu?
Hofstetter: Es sind die Menschen, die lernende Maschinen programmieren. Aber auf das, was die Maschinen dann lernen, hat der Mensch nicht mehr so viel Einfluss. Natürlich bestimmt der Programmierer die Input-Variablen in einem neuronalen Netz. Er bestimmt, wieviel Eingangsneuronen in einem neuronalen Netz vorhanden sind. Er legt die Zahl der Lagen in diesem Netz fest. Aber was dann in diesem Netz geschieht, ist für denjenigen, der die Netztopologie entwickelt, a priori erst einmal ziemlich intransparent. Wenn also ein Entwickler eine lernende Maschine programmiert, dann ist ihm nicht klar, was diese Maschine später warum lernt und was schlussendlich dabei im Output-Layer herauskommen wird. Es ist ziemlich schwer nachzuvollziehen, was in dem Netz passiert.
Zur Person: |
Yvonne Hofstetter ist ausgebildete Juristin und IT-Expertin. Sie ist Geschäftsführerin des auf Big-Data- und KI-Lösungen spezialisierten Unternehmens Teramark Technologies GmbH in Zolling bei München. Sie hat zwei sehr beachtete Bücher geschrieben: Im C. Bertelsmann Verlag erschien 2014 "Sie wissen alles" - eine Abhandlung über Unternehmen wie Facebook und Google u.a., die Massendaten aller BürgerInnen auswerten und damit Profite generieren. Im September 2016 erschien ihr zweites Buch "Das Ende der Demokratie: Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt", ebenfalls erschienen im C. Bertelsmann Verlag. Sie ist ein gern gesehener Gast bei Podiums-Diskussionen, Talkrunden, auf der Frankfurter Buchmesse und auf Veranstaltungen, die die IT im weiteren und die KI im engeren Sinn kritisch reflektieren. Sie wohnte in ihrer Kindheit in der Nähe der DDR-Grenze und erlebte hautnah mit, was Diktatur bedeutet. Ihre Schulausbildung in einem Mädcheninternat erhielt sie bei den Englischen Fräulein. Dort genoss sie, wie sie betont, eine hervorragende politische Bildung. Sie arbeitet alle Wochenenden durch. Ihren letzten Urlaub machte sie im Jahr 2008. |
CW: Kann man nicht solch einen Algorithmus einfach offenlegen, um Transparenz zu gewinnen?
Hofstetter: Wenn man solch einen von einer lernenden Maschine entwickelten Algorithmus offenlegt, wird man lediglich Gewichtungen von Neuronen, also Zahlenwerte sehen. Aber was heißt das denn dann? Wenn ich so einen Algorithmus offenlege, bekomme ich Listen über Listen von Zahlen vorgelegt. Aber was sagt mir das dann? Der Output ist nicht mehr so eindeutig verständlich, dass man sagen könnte, man habe jetzt verstanden, was der Algorithmus wirklich tut.
CW: In Ihrem im September 2016 erschienenen Buch "Das Ende der Demokratie: Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt" schreiben Sie, in den USA habe sich die IT-Industrie eigentlich schon abgesetzt von Staat und Gesellschaft und sich im Prinzip zum heimlichen Gesetzgeber entwickelt. Im Prinzip kopple sich so die IT vom Checks and Balances-System ab.
In diesem Zusammenhang kann man sich folgendes Szenario vorstellen: Jemand interessiert sich für die Geschichte des Islam, also bestellt er sich eine historische Abhandlung dieses Inhalts bei Amazon. Zudem ist er begeisterter Hobbygärtner und bestellt auch noch Düngemittel. Schon ist er verdächtig. Das System erkennt in dieser Kombination eine scheinbar problematische Verbindung: Islaminteressierter, der einen Bestandteil für die Herstellung von Sprengstoff bei Amazon bestellt …
KI findet Korrelationen, die völlig absurd sein können
Hofstetter: Stopp! Was Sie da beschreiben, ist klassisches, regelbasiertes Programmieren. Das ist das, was wir bislang auch schon immer getan haben in den vergangenen 30, 40, 50 Jahren. Bezugnehmend auf Ihr Beispiel: Da programmiert jemand, für den die Korrelation Islam und Düngemittel irgendwie verdächtig ist. A priori ist es aber zunächst einmal so, dass Datensammler eben Daten sammeln, Rohdaten, Messdaten.
- Facebook Big Sur
Das unter Open-Source-Lizenz stehende KI-System setzt auf die Nvidia Tesla Accelerated Computing Platform und übernimmt bei Facebook heute komplexe Aufgaben, für die früher auf Drittanbieter-Hardware zurückgegriffen werden musste. - Google RankBrains
Für Suchanfragen, die erstmalig auftauchen, soll RankBrains menschliche Schriftsprache in mathematische Vektoren übersetzen, die die Suchengine dann verarbeiten kann. Diese Form des maschinellen Lernens wird mit steigender Zahl bislang unbekannter Suchanfragen immer besser. Wissbegierige Internetnutzer trainieren das System quasi unbewusst. - Google Deepmind AlphaGo
Besiegte kürzlich den Welt- und den Europameister im asiatischen Brettspiel Go: das KI-System Alpha Go, das von Google Deepmind entworfen wurde. - SwiftKey Neural Alpha
Wer SMS schreibt, bekommt schon länger Wortvorschläge. Mit Neural Alpha will "n-gram"-Erfinder SwiftKey nun aber auch ganze Satzzusammenhänge vorhersagen und so die Texteingabe noch intuitiver machen. - Open AI
Investor und Tesla-Gründer Elon Musk erforscht in der "Open AI"-Initiative zusammen mit anderen Silicon-Valley-Vordernkern die Künstliche Intelligenz zum Wohle der Menschheit. Damit wir keine bösen Terminatoren bekommen, die uns alle versklaven wollen... - Microsoft XiaoIce
Der Microsoft-"Virtual Social Assistant" XiaoIce trägt seit Ende 2015 den Wettbericht im chinesischen Fernsehen komplett ohne menschliche Hilfe vor. - Roboter-Concierge Connie
Wenn Sie demnächst in einem Hilton absteigen, könnten Sie einem kleinen Roboter-Concierge begegnen: "Connie" arbeitet mit Watson-Technologie von IBM und steht Hotelgästen mit Rat und Tat zur Seite. Das Pilotprojekt läuft gerade in den USA.
Mit Künstlicher Intelligenz aber kommt der Qualitätssprung: Werden diese Messdaten dann nicht mehr von Menschen, sondern von einem künstlichen neuronalen Netz analysiert, passiert folgendes: Die KI findet selbst Korrelationen. Die aber können völlig absurd sein. Denn das Problem bei Massendaten ist ja, dass wir eben nicht wissen, welche Korrelationen sich darin verbergen. Wir schicken einfach einen Haufen Daten durch ein neuronales Netz und die KI findet bestimmte Korrelationen, die mehr oder weniger sinnvoll oder intuitiv sind.
Und da gibt es nun die aus dem einen Lager, insbesondere aus der Industrie und aus den großen Konzernen auch in Deutschland, aus der herstellenden Industrie, die sagen: In Zukunft können wir alle Experten abschaffen. Denn es reicht, wenn man über seinen Industrieprozess, oder über seine Kunden nur genügend Daten sammelt, die man dann mit künstlichen neuronalen Netzen auswertet. Und nur auf diese Daten - also auf die Korrelation dieser Daten - stellt man dann sein gesamtes Geschäftsmodell, seine Umsatzplanungen etc. ab. Wir nennen das "data driven thinking". In solch einem Fall überlegt man gar nicht mehr, ob Korrelationen sinnvoll sind. Dieses Lager nimmt die Analyseergebnisse kritiklos hin. Solch ein Vorgehen ist dann im Eigentlichen völlig wissenschaftsfrei.
Wissenschaftler aus dem anderen Lager aber sagen, das ist ja völliger Bogus, völliger Unsinn. Wenn die Massendatenanalyse zu spurious effects führt - also über Korrelationen täuscht -, dann braucht es gerade besonders die Industrieexpertise und die Wissenschaft, um scheinbare Effekte zu erklären oder auszuschließen. Hier sucht man nach Kausalität, nicht nach Korrelation. Kein Wissenschaftler würde sich auf Korrelationen verlassen.