OpenAI, Entwickler des KI-Bots ChatGPT, gerät unter Druck. Jetzt hat die oberste Handelsbehörde in den Vereinigten Staaten, die Federal Trade Commission (FTC), eine Untersuchung eingeleitet. Der Verdacht lautet, dass ChatGPT Menschen schädigen könnte, indem der dialogorientierte Chatbot falsche Informationen über sie veröffentlicht. Sollte sich das bestätigen, wäre die beliebte App wohl ernsthaft bedroht.
Wie das Wall Street Journal berichtet, gab es am Donnerstag (13. Juli 2023) eine zivilrechtliche Vorladung für OpenAI. Untersucht wird, ob desen Chatbot "unlautere oder irreführende Praktiken mit dem Risiko einer Schädigung von Verbrauchern angewandt hat". Das Unternehmen muss nun im Detail erklären, welche Maßnahmen es ergriffen hat, damit sein Large Language Model (LLM) keine "falschen, irreführenden oder verunglimpfenden Aussagen über reale Personen machen kann."
FTC kritisiert Intransparenz der Trainingsdaten von ChatGPT
Geleitet wird die Ermittlung von der FTC-Vorsitzenden Lina Khan. Vor dem Justizausschuss des Repräsentantenhauses zeigte sie sich besorgt darüber, dass ChatGPT und andere KI-gesteuerte Apps keine Kontrolle über die Daten hätten, die sie auswerten würden. "Wir haben gehört, dass bei Abfragen sensible Informationen über Menschen aufgetaucht sind", sagte Khan. Nutzer hätten Verleumdungen, diffamierenden Aussagen und Lügen als Abfrageergebnisse erhalten.
in der zivilrechtlichen Vorladung stellte die Behörde OpenAI detaillierte Fragen zu den eingesetzten Datensicherheitspraktiken. Weitere Themen waren die Marketingbemühungen des Unternehmens, seine Praktiken beim Training von KI-Modellen und sein Umgang mit den persönlichen Daten der Nutzer.
Kritiker aus dem konservativen Lager halten den Vorgang für "einmalig" und sprechen von einer neue Stufe auf der Eskalationsleiter. Aus ihrer Sicht nimmt sich die Regierungsbehörde eine gerade erst entstehende, vielversprechende Technologie zu einem viel zu frühen Zeitpunkt zur Brust. "Wenn ChatGPT etwas Falsches über jemanden sagt und möglicherweise dessen Ruf geschädigt hat, fällt das dann in die Zuständigkeit der FTC? Ich glaube, das ist keineswegs klar", moniert etwa Adam Kovacevich, Gründer der Handelsvereinigung Chamber of Progress.
"Bot erfüllt keine einzige Richtlinie für den sicheren Einsatz von KI"
Das FTC bezeichnete ChatGPT in seiner Beschwerde indes unbeirrt als "voreingenommen, irreführend und ein Risiko für die Privatsphäre und die öffentliche Sicherheit". Der Bot erfülle keine einzige Richtlinie für den sicheren Einsatz von KI. Die Behörde pocht damit auf die eigenen weitreichenden Befugnisse, unlautere Geschäftspraktiken zu bekämpfen, die Verbrauchern schaden können. Behörden-Chefin Khan steht in den USA allerdings im Ruf, es manchmal zu übertreiben. Erst vor wenigen Tagen hatte ein US-Bundesrichter sie in die Schranken verwiesen, als der FTC-Versuch, Microsofts Übernahme von Activision Blizzard zu verhindern, kassiert wurde.
Bei einer Anhörung vor dem Repräsentantenhaus war Khan zudem in die Kritik geraten, weil ihre Behörde die Datenschutzbestimmungen von Twitter allzu genau untersucht hatte. Die Republikaner wittern darin den Versuch der Liberalen, dem von Elon Musk übernommenen Microblogging-Dienst Steine in den Weg zu legen. Musk hatte angekündigt, die Richtlinien für die Inhaltskontrolle zu lockern und auf Twitter wieder mehr "freie Rede" zuzulassen. Zudem hatte er den Ex-Präsidenten Donald Trump sowie weitere erzkonservative Aktivisten zur Rückkehr auf die Plattform eingeladen.
Auch die US-Regierung prüft Generative AI
Unabhängig von dem jüngsten Vorstoß der FTC prüft die Regierung Biden, ob KI-Tools wie ChatGPT stärker kontrolliert beziehungsweise reguliert werden müssen. So beschäftigt sich das Büro für Wissenschafts- und Technologiepolitik im Weißen Haus mit den Vor- und Nachteilen von KI. Positiv wird etwa der voraussichtlich einfachere Zugang zu staatlichen Dienstleistungen gesehen, kritisch dagegen die erweiterten Möglichkeiten für Hacker und die manchmal diskriminierenden Entscheidungen von KI-Systemen.
Demokraten und Republikaner haben die KI-Regulierung mittlerweile zu einer priorisierten Angelegenheit für den Kongress erklärt. Man möchte etwa verhindern, dass Wähler mit Desinformationen manipuliert oder Minderheiten diskriminiert werden. Weitere Risiken sieht die US-Politik in der Möglichkeit neuer ausgeklügelter Finanzverbrechen und der Verbreitung von Deepfake-Fotos und -Videos. Und schließlich geht es auch um US-Wirtschaft insgesamt: Millionen Arbeitsplätze könnten auf dem Spiel stehen.
KI-Regulierung könnte US-Wirtschaft bremsen
Noch sind keine neuen Gesetze oder Regulierungsmaßnahmen in Sicht, denn die Politiker sind äußerst vorsichtig. Zu starke Eingriffe würden bedeuten, dass sich das Tempo der Innovationen und damit das Wirtschaftswachstum in den USA verlangsamen könnte. Momentan ringt das Land mit China um die Vorherrschaft auf dem Markt für KI-Werkzeuge.
it is very disappointing to see the FTC's request start with a leak and does not help build trust.
— Sam Altman (@sama) July 13, 2023
that said, it’s super important to us that out technology is safe and pro-consumer, and we are confident we follow the law. of course we will work with the FTC.
OpenAI-Mitgründer Sam Altman twitterte, die FTC-Ermittlungen unterstützen zu wollen. Er äußerte sich allerdings enttäuscht darüber, dass die Untersuchungsdokumente offensichtlich per Leak an die Öffentlichkeit durchgesickert seien. Das trage nicht gerade zur Vertrauensbildung bei.
Der Erfinder von ChatGPT hatte zuletzt selbst auf eine stärkere staatliche Kontrolle der KI-Entwicklung gedrängt. Altman forderte im Mai vor dem US-Kongress, Lizenz- und Sicherheitsstandards für fortschrittliche Systeme der KI zu schaffen. "Wir verstehen, dass die Menschen besorgt darüber sind, wie sich unsere Lebensweise durch Generative AI verändern kann. Wir sind es auch", sagte Altman anlässlich einer Anhörung des Senatsunterausschusses. "Wenn bei dieser Technologie etwas schief geht, kann es sehr schief gehen."