OpenAI hat angekündigt, ChatGPT-Nutzern künftig ermöglichen zu wollen, die Chat-Verlaufsfunktion zu deaktivieren. Das wird in Teilen als Reaktion auf die zahlreichen Stimmen gesehen, die in Bezug auf die Sicherheit der an ChatGPT übermittelten Daten Alarm schlagen.
Deaktivieren die Nutzer die Chat-History in ChatGPT, sollen diese Unterhaltungen nicht mehr dazu verwendet werden, um die zugrundeliegenden Sprachmodelle zu trainieren, und auch nicht mehr im Verlauf angezeigt werden. Dennoch werden die Daten allerdings weiterhin auf Servern von OpenAI gespeichert - nach Angaben des Unternehmens aber lediglich um Verdachtsfälle von Missbrauch überprüfen zu können. Nach 30 Tagen würden die Daten zudem gelöscht, hieß es.
"Wir hoffen, dass das im Vergleich zu unserem bisherigen Opt-Out-Prozess den Nutzern erleichtert, Ihre Daten zu managen", schreibt das Unternehmen im offiziellen Blogpost zur Ankündigung. Darüber hinaus hat OpenAI ein neues Abomodell für Business-Nutzer angekündigt. Bei ChatGPT Business sollen die API-Datennutzungsrichtlinien des Unternehmens zur Anwendung kommen: Benutzerdaten werden so standardmäßig nicht mehr für das Modelltraining verwendet. Das ChatGPT-Business-Abo soll "in den kommenden Monaten" auf den Markt kommen.
you can now disable chat history (and training) in ChatGPT, and we will offer ChatGPT Business in the coming months.https://t.co/jjxuUxYJSa
— Sam Altman (@sama) April 25, 2023
"Datenschutz eher nachträglicher Gedanke als Kernkomponente"
Der Move von OpenAI folgt auf die Ankündigung der EU-Kommission, ChatGPT wegen möglicher Verstöße gegen die europäische Datenschutzgrundverordnung unter die Lupe nehmen zu wollen. Italien hatte bereits im März wegen Datenschutzverstößen die Nutzung des KI-Chatbots grundsätzlich untersagt und fordert von den Verantwortlichen mehr Transparenz im Umgang mit Nutzerdaten.
Für Nader Henein, Vice President und Analyst bei Gartner, ist es keine Überraschung, dass Datenschutz und Data Governance für OpenAI zu Beginn nicht unbedingt ganz oben auf der Prioritätsliste standen: "Für ein Startup, das darauf fokussiert ist, ein funktionierendes Produkt auf den Markt zu bringen, ist das nicht ungewöhnlich. Sie bauen quasi ein Flugzeug während es bereits fliegt. Ich kann mir gut vorstellen, dass sich bei Microsoft in Bezug auf Copilot viele Entwickler darum bemühen, das OpenAI-Sprachmodell mit Governance und Enterprise Support auszustatten."
Die neuen Datenschutz-Kontrollfunktionen seien jedoch ein erster Schritt in die richtige Richtung, meint der Analyst und fügt hinzu: "Das verdeutlicht aber auch, dass Datenschutz bei den Designentscheidungen, die weiten Teilen von ChatGPT zugrundeliegen, eher ein nachträglicher Gedanke als eine Kernkomponente war. Ich zweifle nicht daran, dass OpenAI hart daran arbeitet, aber es stellt sich dabei die Frage, wie viel man im Nachhinein noch tun kann." (fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Computerworld.