Slack a utilisé les données de vos chats pour entraîner ses modèles d'apprentissage automatique.

Slack entraîne des modèles d'apprentissage automatique sur les messages, fichiers et autres contenus des utilisateurs sans leur consentement explicite. L'entraînement se fait sur la base de l'opt-out, ce qui signifie que vos données privées sont extraites par défaut. Pour aggraver les choses, vous devez demander à l'administrateur Slack de votre entreprise (service des ressources humaines, service informatique, etc.) d'arrêter la formation par e-mail. (Bienvenue dans le côté obscur de la nouvelle ruée vers l'or des données de formation à l'IA.

Corey Quinn, un cadre supérieur du DuckBill Group, a découvert la politique dans une section de la politique de confidentialité de Slack et l'a publiée sur X (via PCMag). La section se lit comme suit (c'est nous qui soulignons) : "Afin de développer des modèles IA/ML, nos systèmes analysent les données des clients (par exemple, les messages, le contenu et les fichiers) envoyées à Slack, ainsi que d'autres informations (y compris les informations d'utilisation), comme défini dans notre politique de confidentialité et votre contrat client".

En réponse aux inquiétudes suscitées par cette pratique, Slack a publié un billet de blog vendredi soir afin de clarifier la manière dont les données de ses clients sont utilisées. Selon l'entreprise, les données des clients ne sont pas utilisées pour entraîner les produits d'IA générative de Slack, pour lesquels l'entreprise dépend de LLM tiers, mais elles sont injectées dans ses modèles d'apprentissage automatique pour des produits tels que les recommandations de chaînes et d'emojis et les résultats de recherche". Pour ces applications, précise l'article, "les modèles ML traditionnels de Slack utilisent des données agrégées non identifiées et n'accèdent pas au contenu des messages dans les DM, les canaux privés ou les canaux publics". Ces données peuvent contenir des choses comme l'horodatage des messages et le nombre d'interactions entre les utilisateurs.

Un porte-parole de Salesforce l'a confirmé dans une déclaration à Engadget, ajoutant que "nous ne construisons pas ou n'entraînons pas ces modèles pour qu'ils apprennent, se souviennent ou soient capables de reproduire les données des clients".

La procédure d'opt-out exige que vous fassiez vous-même tout le travail pour protéger vos données. La déclaration de confidentialité indique : "Pour vous désinscrire, veuillez contacter notre équipe Customer Experience à l'adresse feedback@slack.com en indiquant l'URL de votre espace de travail/organisation et en mentionnant en objet "Slack Global Model Opt-Out Request". Nous traiterons votre demande et vous répondrons dès que la désinscription sera terminée".

L'entreprise a répondu au message de Quinn sur X : "Pour être clair, Slack a des modèles d'apprentissage automatique à l'échelle de la plateforme pour des choses comme les recommandations de canaux et d'emojis et les résultats de recherche. Et oui, les clients peuvent exclure leurs données de l'apprentissage de ces modèles ML (non génératifs)".

On ne sait pas depuis combien de temps la société appartenant à Salesforce a glissé cette friandise dans ses conditions générales. Il est au mieux trompeur de dire que les clients peuvent se désinscrire, si "clients" n'inclut pas les employés d'une entreprise. Vous devez demander à la personne responsable de l'accès à Slack dans votre entreprise de le faire - et j'espère qu'elle s'y tiendra.

Des incohérences dans la politique de confidentialité de Slack ajoutent à la confusion. Dans un paragraphe, on peut lire : "Lors du développement de modèles IA/ML ou d'autres analyses de données clients, Slack ne peut pas accéder au contenu sous-jacent. Nous avons pris diverses mesures techniques pour empêcher cela". Cependant, la politique d'entraînement des modèles d'apprentissage automatique semble contredire cette déclaration, ce qui laisse une grande place à la confusion.

En outre, le site web de Slack, qui fait la promotion des outils premium pour l'IA générative, dit : "Travaillez sans souci. Vos données sont vos données. Nous ne les utilisons pas pour entraîner l'IA de Slack. Tout fonctionne sur l'infrastructure sécurisée de Slack et répond aux mêmes normes de conformité que Slack lui-même".

Dans ce cas, l'entreprise parle de ses outils d'IA générative de haute qualité, séparément des modèles d'apprentissage automatique sur lesquels elle s'entraîne sans autorisation explicite. Toutefois, comme le fait remarquer PCMag, l'hypothèse selon laquelle toutes vos données sont à l'abri de l'entraînement à l'IA est, au mieux, une affirmation hautement trompeuse si l'entreprise semble pouvoir choisir les modèles d'IA que cette affirmation couvre.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *