In einem Blogbeitrag des Unternehmens vom 17. Mai 2024 heißt es, dass Slack bei der Entwicklung von großen Sprachmodellen (LLMs), die die GenAI-Funktionen in seiner Kollaborations-App unterstützen, keine Benutzerdaten wie Slack-Nachrichten und -Dateien verwendet. Kunden müssten jedoch weiterhin ausdrücklich widersprechen (opt out), wenn ihre Daten nicht standardmäßig verwendet werden sollen, um andere KI-Modelle zu trainieren, etwa um die auf maschinellem Lernen (ML) basierenden Empfehlungen zu verfeinern.
Die Kritik an Slacks Haltung gegenüber dem Datenschutz begann offenbar letzte Woche, als ein User auf X(ehemals Twitter) sich über die Datenschutzgrundsätze des Unternehmens echauffierte. Andere empörten sich darüber in einem HackerNews-Threat.
Slack muss nachschärfen
Am Freitag reagierte Slack auf den Unmut unter seiner Kundschaft und aktualisierte einige Formulierungen seiner Datenschutzgrundsätze. Darin versuchte der Anbieter, zwischen maschinellem Lernen und LLMs zu unterscheiden.
Demnach nutzt Slack maschinelles Lernen für bestimmte Funktionen wie Emojis und Kanalempfehlungen sowie in Suchergebnissen. Während diese ML-Algorithmen tatsächlich auf Benutzerdaten trainiert würden, seien sie nicht darauf ausgelegt, "Kundendaten jeglicher Art zu lernen, zu speichern oder zu reproduzieren", heißt es von Seiten des Unternehmens. Diese ML-Modelle verwenden "anonymisierte, aggregierte Daten und greifen nicht auf Nachrichteninhalte in DMs [Anm. d. Red.: direkte Nachrichten], privaten Kanälen oder öffentlichen Kanälen zu". Weiter heißt es, dass keine Kundendaten genutzt würden, um LLMs von Drittanbietern zu trainieren, die in seinen Slack-KI-Tools verwendet werden.
Der Anbieter nahm die Bedenken der User zur Kenntnis und räumte ein, dass die bisherige Formulierung seiner Datenschutzgrundsätze zu der Situation beigetragen habe. "Wir schätzen das Feedback und als wir uns die Formulierungen auf unserer Website ansahen, wurde uns klar, dass sie Recht hatten", sagte Slack im oben genannten Blogbeitrag. "Wir hätten unseren Ansatz besser erklären können, insbesondere im Hinblick auf die Unterschiede in der Art und Weise, wie Daten für traditionelle Modelle des maschinellen Lernens (ML) und in der generativen KI verwendet werden."
Kein wirklicher Fortschritt
"Die Datenschutzgrundsätze von Slack sollten dabei helfen, Bedenken auszuräumen, die die Einführung von GenAI-Initiativen möglicherweise behindern könnten", erklärte Raúl Castañón, Senior Research Analyst bei 451 Research, Teil von S&P Global Market Intelligence.
Slack bezieht seine Kundschaft jedoch weiterhin standardmäßig mit ein, wenn es darum geht, Benutzerdaten mit den AI/ML-Algorithmen zu teilen. Um das zu unterbinden, muss der Slack-Administrator eines Kundenunternehmens eine E-Mail an Slack schreiben und fordern, dass auf diese Daten nicht mehr zugegriffen wird.
Laut Castañón werde diese Haltung von Slack die Bedenken hinsichtlich des Datenschutzes wahrscheinlich nicht zerstreuen. "Ähnlich wie bei Fragen des Verbraucherschutzes ist es bei einem Opt-in-Ansatz zwar deutlich unwahrscheinlicher, dass eine Reaktion erfolgt, er vermittelt aber in der Regel mehr Vertrauenswürdigkeit", sagte er.
Eine aktuelle Umfrage des Analystenunternehmens Metrigy ergab, dass es weit verbreitet ist, Kundendaten zum Trainieren von KI-Modellen zu verwenden: 73 Prozent der befragten Unternehmen trainieren KI-Modelle auf der Grundlage von Kundendaten oder planen dies.
Idealerweise folge das Training einen Opt-in- statt einem Opt-out-Ansatz. Unternehmen wie Slack oder dessen Mutterkonzern Salesforce könnten ihre Kundschaft proaktiv darüber informieren, welche Daten auf welche Art und Weise verwendet werden, empfiehlt Irwin Lazar, Präsident und Hauptanalyst bei Metrigy. Der Marktforscher ergänzt: "Ich denke, dass die Datenschutzbedenken im Zusammenhang mit KI-Training nur mehr werden und Unternehmen zunehmend mit Gegenreaktionen konfrontiert werden, wenn sie die Datennutzung und Trainingsmethoden nicht klar kommunizieren." (jd)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Computerworld.com.