Slack trainiert maschinelle Lernmodelle auf Nachrichten, Dateien und andere Inhalte von Nutzern ohne deren ausdrückliche Zustimmung. Das Training erfolgt auf Opt-Out-Basis, was bedeutet, dass Ihre privaten Daten standardmäßig ausgelesen werden. Um es noch schlimmer zu machen, müssen Sie den Slack-Administrator Ihres Unternehmens (Personalabteilung, IT-Abteilung usw.) bitten, das Training per E-Mail zu stoppen. (Willkommen auf der dunklen Seite des neuen Goldrauschs für KI-Trainingsdaten.
Corey Quinn, ein leitender Angestellter der DuckBill Group, entdeckte die Richtlinie in einem Abschnitt der Datenschutzrichtlinien von Slack und veröffentlichte sie auf X (via PCMag). Der Abschnitt lautet (Hervorhebung durch uns): „Um KI/ML-Modelle zu entwickeln, analysieren unsere Systeme Kundendaten (z. B. Nachrichten, Inhalte und Dateien), die an Slack gesendet werden, sowie andere Informationen (einschließlich Nutzungsinformationen), wie in unserer Datenschutzrichtlinie und Ihrer Kundenvereinbarung definiert.“
Als Reaktion auf die Besorgnis über diese Praxis veröffentlichte Slack am Freitagabend einen Blogeintrag, um klarzustellen, wie die Daten seiner Kunden verwendet werden. Laut dem Unternehmen werden die Kundendaten nicht verwendet, um die generativen KI-Produkte von Slack zu trainieren, für die das Unternehmen auf LLMs von Drittanbietern angewiesen ist, sondern sie werden in seine Modelle für maschinelles Lernen für Produkte wie Kanal- und Emoji-Empfehlungen und Suchergebnisse eingespeist.“ Für diese Anwendungen, so der Artikel, „verwenden die traditionellen ML-Modelle von Slack unidentifizierte, aggregierte Daten und greifen nicht auf Nachrichteninhalte in DMs, privaten Kanälen oder öffentlichen Kanälen zu“. Diese Daten können Dinge wie Zeitstempel von Nachrichten und die Anzahl der Interaktionen zwischen Nutzern enthalten.
Ein Salesforce-Sprecher bestätigte dies in einer Stellungnahme gegenüber Engadget und fügte hinzu, dass „wir diese Modelle nicht so konstruieren oder trainieren, dass sie lernen, sich erinnern oder in der Lage sind, Kundendaten zu reproduzieren“.
Das Opt-Out-Verfahren erfordert, dass Sie die gesamte Arbeit zum Schutz Ihrer Daten selbst übernehmen. In der Datenschutzerklärung heißt es: „Um sich abzumelden, kontaktieren Sie bitte unser Customer Experience Team unter feedback@slack.com mit der URL Ihres Arbeitsbereichs/Ihrer Organisation und dem Betreff ‚Slack Global Model Opt-Out Request‘. Wir werden Ihre Anfrage bearbeiten und Ihnen antworten, sobald die Abmeldung abgeschlossen ist.“
Das Unternehmen antwortete auf Quinns Nachricht auf X: „Um es klar zu sagen, Slack hat plattformweite maschinelle Lernmodelle für Dinge wie Kanal- und Emoji-Empfehlungen und Suchergebnisse. Und ja, Kunden können ihre Daten vom Training dieser (nicht-generierenden) ML-Modelle ausschließen.“
Wie lange es her ist, dass die zu Salesforce gehörende Firma dieses Schmankerl in ihre Geschäftsbedingungen geschmuggelt hat, ist nicht bekannt. Es ist bestenfalls irreführend zu sagen, dass Kunden sich abmelden können, wenn „Kunden“ nicht die Mitarbeiter eines Unternehmens einschließt. Sie müssen die Person, die für den Zugang zu Slack in ihrem Unternehmen verantwortlich ist, bitten, dies zu tun – und ich hoffe, dass sie sich daran halten wird.
Ungereimtheiten in den Datenschutzrichtlinien von Slack tragen zur Verwirrung bei. In einem Abschnitt heißt es: „Bei der Entwicklung von KI-/ML-Modellen oder anderen Analysen von Kundendaten kann Slack nicht auf die zugrunde liegenden Inhalte zugreifen. Wir haben verschiedene technische Maßnahmen ergriffen, um dies zu verhindern“. Die Richtlinie für das Training von Machine-Learning-Modellen scheint dieser Aussage jedoch zu widersprechen, was viel Raum für Verwirrung lässt.
Darüber hinaus heißt es auf der Website von Slack, auf der die Premium-Tools für generative KI beworben werden: „Arbeiten Sie sorglos. Ihre Daten sind Ihre Daten. Wir verwenden sie nicht, um die Slack-KI zu trainieren. Alles läuft auf der sicheren Infrastruktur von Slack und erfüllt die gleichen Compliance-Standards wie Slack selbst.“
In diesem Fall spricht das Unternehmen von seinen hochwertigen generativen KI-Tools, getrennt von den Machine-Learning-Modellen, auf denen es ohne ausdrückliche Genehmigung trainiert. Wie PCMag jedoch anmerkt, ist die Annahme, dass alle Ihre Daten vor dem KI-Training sicher sind, bestenfalls eine höchst irreführende Behauptung, wenn das Unternehmen anscheinend auswählen kann, welche KI-Modelle diese Behauptung abdeckt.