Slack addestra modelli di apprendimento automatico su messaggi, file e altri contenuti degli utenti senza il loro esplicito consenso. L'addestramento avviene su base opt-out, il che significa che i vostri dati privati vengono letti per impostazione predefinita. Come se non bastasse, è necessario chiedere all'amministratore Slack della propria azienda (Risorse Umane, reparto IT, ecc.) di interrompere l'addestramento via e-mail. (Benvenuti nel lato oscuro della nuova corsa all'oro dell'addestramento dell'intelligenza artificiale.
Corey Quinn, dirigente del DuckBill Group, ha scoperto l'informativa in una sezione delle norme sulla privacy di Slack e l'ha pubblicata su X (via PCMag). La sezione recita (enfasi nostra): "Per sviluppare modelli di AI/ML, i nostri sistemi analizzano i dati dei clienti (ad esempio, messaggi, contenuti e file) inviati a Slack, nonché altre informazioni (comprese le informazioni sull'utilizzo) come definito nella nostra Informativa sulla privacy e nel vostro Contratto con il cliente".
In risposta alle preoccupazioni su questa pratica, venerdì sera Slack ha pubblicato un post sul blog per chiarire come utilizza i dati dei suoi clienti. Secondo l'azienda, i dati dei clienti non vengono utilizzati per addestrare i prodotti di intelligenza artificiale generativa di Slack, per i quali l'azienda si affida a LLM di terze parti, ma vengono invece inseriti nei modelli di apprendimento automatico per prodotti come le raccomandazioni di canali ed emoji e i risultati di ricerca". Per queste applicazioni, si legge nell'articolo, "i modelli di ML tradizionali di Slack utilizzano dati aggregati non identificati e non accedono al contenuto dei messaggi nei DM, nei canali privati o nei canali pubblici". Questi dati possono includere elementi come i timestamp dei messaggi e il numero di interazioni tra gli utenti.
Un portavoce di Salesforce lo ha confermato in una dichiarazione a Engadget, aggiungendo che "non progettiamo o addestriamo questi modelli per imparare, ricordare o essere in grado di replicare i dati dei clienti".
Il processo di opt-out richiede che l'utente svolga tutto il lavoro per proteggere i propri dati. L'informativa sulla privacy recita: "Per rinunciare, contattate il nostro team Customer Experience all'indirizzo feedback@slack.com indicando l'URL del vostro spazio di lavoro/organizzazione e l'oggetto 'Slack Global Model Opt-Out Request'. Elaboreremo la vostra richiesta e vi risponderemo non appena l'opt-out sarà completato".
L'azienda ha risposto al messaggio di Quinn su X: "Per essere chiari, Slack ha modelli di apprendimento automatico a livello di piattaforma per cose come le raccomandazioni di canali ed emoji e i risultati di ricerca. E sì, i clienti possono escludere i loro dati dall'addestramento di questi modelli di ML (non generativi)".
Non si sa da quanto tempo l'azienda di proprietà di Salesforce abbia inserito questa chicca nei suoi termini e condizioni. È fuorviante, nel migliore dei casi, affermare che i clienti possono rinunciare a Slack quando il termine "clienti" non include i dipendenti di un'azienda. Per farlo, devono chiedere alla persona responsabile dell'accesso a Slack nella loro organizzazione, e spero che la rispetteranno.
Le incoerenze nell'informativa sulla privacy di Slack aumentano la confusione. Una sezione afferma: "Quando si sviluppano modelli AI/ML o altre analisi dei dati dei clienti, Slack non può accedere al contenuto sottostante. Abbiamo adottato diverse misure tecniche per evitarlo". Tuttavia, la politica per l'addestramento dei modelli di apprendimento automatico sembra contraddire questa affermazione, il che lascia molto spazio alla confusione.
Inoltre, sul sito web di Slack, che pubblicizza i suoi strumenti premium per l'IA generativa, si legge: "Lavorate senza preoccupazioni. I vostri dati sono i vostri dati. Non li usiamo per addestrare l'IA di Slack. Tutto gira sull'infrastruttura sicura di Slack e rispetta gli stessi standard di conformità di Slack stesso".
In questo caso, l'azienda sta parlando dei suoi strumenti di IA generativa di alta qualità, separati dai modelli di apprendimento automatico su cui si allena senza un'autorizzazione esplicita. Tuttavia, come osserva PCMag, l'ipotesi che tutti i vostri dati siano al sicuro dall'addestramento dell'IA è un'affermazione estremamente fuorviante, nel migliore dei casi, quando l'azienda può apparentemente scegliere quali modelli di IA includere in questa affermazione.