Ignore-Modus aus

7 KI-Dilemmas, die sich nicht in Luft auflösen

03.05.2023
Von 
Peter Wayner schreibt unter anderem für unsere US-Schwesterpublikation InfoWorld.com und ist Autor verschiedener Bücher - unter anderem zu den Themen Open Source Software, autonomes Fahren und digitale Transaktionen.
Der Hype bringt die zahlreichen, praktischen und ethischen Dilemmas künstlicher Intelligenz zum Vorschein.
Nicht vergessen: Künstliche Intelligenz ist nicht frei von Problemen.
Nicht vergessen: Künstliche Intelligenz ist nicht frei von Problemen.
Foto: thinkhubstudio - shutterstock.com

Künstliche Intelligenz (KI) komponiert Musik, schreibt Texte, erforscht den Weltraum und erledigt repetitive Aufgaben. Doch bei all dem Hype, der derzeit vor allem um generative KI gemacht wird: Unter der schimmernden Oberfläche von Tools wie ChatGPT oder Bard warten ernsthafte Problemstellungen darauf, in Angriff genommen zu werden. Zum Beispiel die folgenden sieben.

1. Knappe Ressourcen

Die meisten großen KI-Modelle beruhen auf massiv parallelen Berechnungen, die durch Grafikprozessoren oder spezielle Chips (TPUs), beschleunigt werden können. Die sind jedoch auch bei Crypto-Minern, Gamern und Homeoffice-Büroarbeitern gefragt. Weil jeder die Hardware will, das Angebot aber überschaubar bleibt, sind die Kosten in den letzten Jahren in die Höhe geschnellt. Um aber das volle Potenzial von KI-Modellen ausschöpfen zu können, wird viel Hardware benötigt - es wird also teuer.

Doch Hardware ist nicht die einzige knappe Ressource, die für eine erfolgreiche KI-Einführung dringend nötig ist. Großangelegte KI-Tasks erfordern auch große Mengen Strom. Zwischen geopolitischen Konflikten und schwankenden erneuerbaren Energiequellen kann es zur Herausforderung werden, genügend Strom zu einem vorhersehbaren Preis zu bekommen.

2. Ethik

Es gibt viele Themen und Debatten, die Menschen in bestimmten Kontexten zu vermeiden wissen, etwa beim Essen oder am Arbeitsplatz. Für Künstliche Intelligenz gilt das jedoch nicht: Sie sollte mit allen möglichen Themen in jedem Kontext umgehen können. Einige Large Language Models (LLMs) sind so konzipiert, dass sie bestimmte Fragen einfach nicht beantworten. Das kann die User (beziehungsweise eine bestimmte Gruppe davon) aber nicht davon abhalten, nach neuen Wegen zu suchen, um die ethischen "Leitplanken" der Systeme zu umgehen.

Bias und unzureichende Daten sind Probleme, die mit der Zeit korrigiert werden können. Bis es so weit ist, ist das Potenzial für Unfug und Missbrauch allerdings enorm. Noch komplizierter wird die Sache, wenn wir KI nutzen wollen, um die moralischen Auswirkungen von Entscheidungen im wirklichen Leben zu untersuchen.

3. Globale Ungerechtigkeit

Viele KI-Projekte sind auf menschliches Feedback angewiesen, um zu "lernen". Ein Projekt dieser Größenordnung erfordert oft ein großes menschliches Team, das die Trainingsdaten erstellt und das Verhalten des Modells anpasst, während es wächst. In vielen Fällen lohnt sich das für Unternehmen aus wirtschaftlicher Sicht nur, wenn die Mitarbeiter in armen Ländern nicht standesgemäß bezahlt werden.

Zwar wird eine intensive Debatte darüber geführt, was fair und gerecht ist - wirtschaftlich machbare Lösung für größere Projekte hat aber noch niemand aufgetan. So wie im Diamanten-Business niemand gerne über die harte, teils illegale und sehr gefährliche Knochenarbeit redet, verdrängt man auch in der KI-Branche die Diskussion über gerechte Löhne.

4. Schlechte Feedback-Schleifen

Desinformationskampagnen werden im Netz schon seit einiger Zeit gefahren - aus den unterschiedlichsten Gründen. Stellen Sie sich vor, was passiert, wenn KI gezielt dazu eingesetzt würde: Einerseits würde die Menge der gefälschten Informationen exponentiell ansteigen. Andererseits wäre die Wahrscheinlichkeit groß, dass eine andere KI diese Informationen aufgreift und sie wieder in den Trainingskorpus einspeist.

Virale Fake News verschmutzen schon jetzt unsere sozialen Netzwerke. Man mag sich kaum ausmalen, inwiefern schlechte Feedback-Schleifen Fehlinformationen noch verstärken können.

5. Gesetze

KI "lernt", indem sie einen riesigen Korpus von Texten und Bildern abgrast. In den meisten Fällen wissen die Menschen, die diese Daten erstellt haben, nichts davon, dass ihre Werke in KI-Modelle einfließen. Das schafft potenziell (viel) Raum für Klagen wegen Lizenzverstößen, Urheberrechtsverletzungen und Plagiaten.

Dazu kommt, dass es im Bereich des Wahrscheinlichen liegt, dass eine KI falsche Informationen über eine bestimmte, berühmte Persönlichkeit liefert. Handelt es sich um verleumderische Informationen und das Ganze landet vor einem Gericht - wer haftet dann: Die KI? Das Unternehmen, das sie betreibt?

6. Tod und Zerstörung

Unseres Wissens gibt es keine bösen KI-Systeme, die sich wie die Antagonisten in alten Sci-Fi-Streifen verhalten. Aber selbstfahrende Autos machen durchaus Fehler, die drastische Konsequenzen nach sich ziehen können. Es scheint, als wüssten wir (noch) nicht, wie wir die Möglichkeit adressieren sollen, dass KI für schwere Verletzungen oder sogar den Tod verantwortlich sein kann.

Der einzige Ausweg: Wir könnten zu dem Schluss kommen, dass einige Aufgaben einfach nicht für KI geeignet sind - egal, wie verlockend der potenzielle Profit auch sein mag.

7. Unrealistische Erwartungshaltung

Viele Menschen neigen dazu, sich vorzustellen, dass Tiere und künstliche Intelligenz genauso denken wie wir. Allerdings weisen KI-Systeme eine völlig andere Form der Intelligenz auf, deren einzigartige Stärken und Schwächen wir erst explorieren müssen.

Unterdessen schüren Hype und Optimismus eine Erwartungshaltung, der die Technologie wahrscheinlich niemals gerecht werden kann. So kann das Ganze nur in einer riesigen Enttäuschung enden. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.