Wenige Tage, nachdem der CEO von OpenAI, Sam Altman, erklärt hatte, dass das Unternehmen möglicherweise seine Aktivitäten in Europa einstellen müsse, wenn die EU-Verordnungen zum AI Act in ihrer jetzigen Form verabschiedet würden, hat er seine Äußerungen anscheinend zurückgenommen.
"Wir werden versuchen, das Gesetz zu erfüllen, aber wenn wir es nicht können, werden wir unsere Tätigkeit einstellen", hatte der Chef der Firma hinter ChatGPT, GPT 4, DALL-E und einer Reihe anderer Generative-AI-Lösungen laut einem Bericht der Financial Times erklärt. Das Gesetz wird derzeit von Vertretern des EU-Parlaments, des Rates und der Kommission debattiert und soll nächstes Jahr verabschiedet werden.
In einem am vergangenen Freitag geposteten Tweet schien Altman jedoch wieder andere Töne anzuschlagen. Er schrieb: "Sehr produktive Woche mit Gesprächen in Europa darüber, wie man KI am besten reguliert! Wir freuen uns, weiterhin hier tätig zu sein und haben natürlich keine Pläne zu gehen."
very productive week of conversations in europe about how to best regulate AI! we are excited to continue to operate here and of course have no plans to leave.
— Sam Altman (@sama) May 26, 2023
Obwohl er vor kurzem gegenüber US-Gesetzgebern erklärt hatte, er sei für eine Regulierung von KI, hatte Altman Anfang dieser Woche in einem Gespräch mit Reportern in Großbritannien angemerkt, er habe "viele Bedenken" bezüglich des KI-Gesetzes der EU und beschuldigte den Block sogar der "Überregulierung".
Diese Äußerungen kamen bei den Gesetzgebern in Europa nicht so gut an. Einige Politiker argumentierten, dass das von der EU vorgeschlagene Maß an Regulierung notwendig sei, um die Bedenken im Zusammenhang mit generativer KI auszuräumen.
"Um es klar zu sagen: Unsere Vorschriften dienen der Sicherheit und dem Wohlergehen unserer Bürger, und das ist nicht verhandelbar", erklärte EU-Kommissar Thierry Breton gegenüber Reuters. "Europa war bei der Entwicklung eines soliden und ausgewogenen Rechtsrahmens für KI einen Schritt voraus." Eine solche Regelung begegne den Risiken im Zusammenhang mit den Grundrechten oder der Sicherheit, ermögliche aber auch Innovationen, um Europa zu einem Vorreiter in Sachen vertrauenswürdiger KI zu machen, so Thierry.
Auch Altman plädiert für KI-Regulierung
In einer Rede vor dem Unterausschuss für Datenschutz, Technologie und Recht des Senats Anfang des Monats erklärte Altman den US-Gesetzgebern, dass eine Regulierung "klug" wäre, da die Menschen wissen müssten, ob sie mit einem KI-System sprechen oder von einem Chatbot generierte Inhalte - Bilder, Videos oder Dokumente - betrachten.
Auf die Frage während der Anhörung, ob die Bürgerinnen und Bürger besorgt sein sollten, dass Wahlen durch große Sprachmodelle (Large Language Models - LLMs) wie GPT-4 und seine Chatbot-Anwendung ChatGPT manipuliert werden könnten, bekundete Altman, dass dies einer seiner "Bereiche der größten Sorge" sei.
"Die generelle Fähigkeit dieser Modelle, zu manipulieren, zu überreden und interaktive Desinformationen zu liefern - angesichts der Tatsache, dass wir nächstes Jahr vor einer Wahl stehen und diese Modelle immer besser werden, halte ich dies für einen wichtigen Bereich, der uns Sorgen bereitet", so der OpenAI-CEO und -Mitbegründer. "Ich denke, wir brauchen auch Regeln und Richtlinien darüber, was von einem Unternehmen erwartet wird, das ein Modell anbietet, das diese Art von Fähigkeiten haben könnte. Ich bin also nervös."
Dieser Artikel basiert auf einem Beitrag der US-Schwesterpublikation Computerworld.