Apple poursuivi en justice pour ne pas avoir implémenté d'outils de détection de CSAM dans iCloud

Apple est poursuivi en justice par des victimes d'abus sexuels sur des enfants parce que l'entreprise n'a pas mis en œuvre son projet de rechercher dans iCloud des documents relatifs à des abus sexuels sur des enfants (CSAM), rapporte le New York Times. En 2021, Apple a annoncé qu'elle travaillait sur un outil de détection des CSAM qui marquerait les images montrant de tels abus et avertirait le National Center for Missing and Exploited Children. Cependant, l'entreprise a immédiatement été critiquée pour l'impact de cette technologie sur la vie privée et a finalement abandonné ce projet.

Selon le NYT, la plainte déposée samedi dans le nord de la Californie réclame plus de 1,2 milliard de dollars de dommages et intérêts pour un groupe potentiel de 2.680 victimes. Il est allégué qu'après avoir présenté ses projets d'outils de sécurité pour enfants, Apple "n'a pas mis en œuvre ces projets ou pris des mesures pour détecter et limiter les CSAM sur ses appareils", ce qui a causé un préjudice aux victimes puisque les images ont continué à circuler.

Dans une déclaration à Engadget, le porte-parole d'Apple Fred Sainz a déclaré : "Le matériel concernant les abus sexuels sur les enfants est abominable et nous nous engageons à combattre les méthodes utilisées par les prédateurs sexuels pour mettre les enfants en danger. Nous travaillons intensément et activement à l'innovation pour lutter contre ces crimes sans compromettre la sécurité et la vie privée de tous nos utilisateurs.

Des fonctions telles que "Communication Safety", par exemple, avertissent les enfants lorsqu'ils tentent de recevoir ou d'envoyer du contenu montrant de la nudité, afin de briser la chaîne de la coercition qui mène à l'abus sexuel des enfants. Nous continuons à nous concentrer fortement sur le développement de mesures de protection qui contribuent à empêcher la propagation des MSTC avant qu'elle ne commence.

Cette plainte intervient quelques mois seulement après qu'Apple ait été accusée par la National Society for the Prevention of Cruelty to Children (NSPCC) britannique de ne pas avoir suffisamment signalé le CSAM.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *