Verfahren gegen OpenAI

Datenschützer machen Front gegen ChatGPT

21.04.2023
Von 
Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 
Deutsche Datenschützer wollen prüfen auf welcher Rechtsgrundlage die KI ChatGPT personenbezogene Daten zum Training verwendet. Eventuell droht ein Verbot.
Im mehr Datenschützer in der EU - auch in Deutschland - leiten Ermittlungsverfahren gegen ChatGPT wegen möglicher Datenschutzverstöße ein.
Im mehr Datenschützer in der EU - auch in Deutschland - leiten Ermittlungsverfahren gegen ChatGPT wegen möglicher Datenschutzverstöße ein.
Foto: Ascannio - shutterstock.com

Zuerst als die größte digitale Revolution gefeiert, die selbst das Internet in den Schatten stellt, droht ChatGPT jetzt der Absturz. Sollte sich herausstellen, dass dem KI-Chatbot die Rechtsgrundlage dazu fehlt, personenbezogene Daten beim Training zu verwenden, droht ein Verbot.

ChatGPT-Verbot steht im Raum

Um dies herauszufinden, haben die Datenschutzbeauftragten der Bundesländer, wie der Tagesspiegel berichtet, ein Verwaltungsverfahren gegen OpenAI eröffnet. Dazu haben die Datenschützer ein gemeinsames Musterschreiben mit Fragen aufgesetzt, das sie an OpenAI übersenden wollen. Doch dies ist nicht die einzige Richtung aus der Ungemach droht.

Auch die EU ermittelt

Wie berichtet will auch das European Data Protection Board (EDPB) eine Task Force bilden, um KI-Tools wie ChatGPT unter die Lupe zu nehmen. Die Italiener verboten bereits kurzerhand ChatGPT, weil eine Altersverifikation fehlt und die Daten italiensicher Bürgerinnen und Bürger ohne deren Wissen zum Training verwendet wurden. Des Weiteren haben die Datenschützer in Spanien ein Ermittlungsverfahren angekündigt.

So weit wie die Italiener wollen die deutschen Datenschützer momentan noch nicht gehen. Deren Vorgehen steht nach Ansicht von Dieter Kugelmann, Leiter der KI-Taskforce der Bundesländer, auf wackeligen Beinen. Es sei rechtlich riskant, da nicht ausreichend Informationen über die Funktionsweise von ChatGPT vorliegen würden, äußerte sich der Leiter der KI-Taskforce gegenüber dem Tagesspiegel.

Wo kommen die Daten her?

Deutsche Datenschützer wollen wissen, auf welcher Rechtsgrundlage ChatGPT personenbezogene Daten zum Training verwendet.
Deutsche Datenschützer wollen wissen, auf welcher Rechtsgrundlage ChatGPT personenbezogene Daten zum Training verwendet.
Foto: Jirsak - shutterstock.com

Diese Informationen hoffen die Datenschützer jetzt im Zuge des Verwaltungsverfahrens zu erhalten. Im Mittelpunkt steht dabei die Frage, wo die Daten herkommen, die ChatGPT zum Training verwendet und ob es dafür eine Rechtsgrundlage gibt.

Sollte dies nicht der Fall sein, so steht die Möglichkeit eines Verbots im Raum. Allerdings haben die Datenschützer ein Problem: OpenAI hat keine Niederlassung in der EU und unterliegt damit nicht unmittelbar einer europäischen Regulierung etwa in Form der DSGVO.

Bitkom gegen Verbot

Der Branchenverband Bitkom hält von solchen Verbotsdiskussionen wenig. "Die aktuelle Verbotsdiskussion, wie sie durch den Bundesdatenschutzbeauftragten angestoßen wird, geht in die völlig falsche Richtung", so Bitkom-Präsident Achim Berg erst kürzlich.

Er appelliert vielmehr dazu, sich ernsthaft mit dem KI-Einsatz in Unternehmen auseinanderzusetzen, denn "KI wird künftig zum Büroalltag genauso dazu gehören wie heute der PC. KI hat das Potenzial, die massiven Auswirkungen der demographischen Entwicklung und des sich verschärfenden Fachkräftemangels abzufedern".

Erste Zweifel an KI in den USA

Selbst in den USA - normalerweise in Sachen Datenschutz eher schmerzbefreit - beginnt man sich Gedanken zu machen. So zählt die Frage der Sicherheit, wie Analyst Rob Enderle in unserer Schwesterzeitschrift Computerworld schreibt, zu einer der großen ungelösten KI-Fragen.

So warnt Enderle vor der Fähigkeit der KI-Tools, Geheimnisse von Unternehmen, Regierungen und Einzelpersonen aufzudecken. Noch gefährlicher sei, dass es keine Sicherheitstechnologie gebe, um dieses Problem zu entschärfen und es möglichweise nie eine geben werde.

Eine weitere Herausforderung ist für Enderle die Frage des Vertrauens. Inwieweit kann man noch einem Geschäftspartner vertrauen, wenn stellvertretend für diesen eine KI agiert? Spiegelt die KI womöglich eine ganz andere Persönlichkeit wider als den realen Mensch im Geschäftsleben?