Apple poursuivi en justice pour ne pas avoir implémenté d'outils de détection de CSAM dans iCloud

Apple est poursuivi en justice par des victimes d'abus sexuels sur des enfants parce que l'entreprise n'a pas mis en œuvre son projet de rechercher dans iCloud des documents relatifs à des abus sexuels sur des enfants (CSAM), rapporte le New York Times. En 2021, Apple a annoncé qu'elle travaillait sur un outil de détection des CSAM qui marquerait les images montrant de tels abus et avertirait le National Center for Missing and Exploited Children. Cependant, l'entreprise a immédiatement été confrontée à des réactions hostiles en raison de l'impact de la technologie sur la vie privée et a finalement abandonné son projet.

Selon le NYT, la plainte déposée samedi dans le nord de la Californie réclame plus de 1,2 milliard de dollars de dommages et intérêts pour un groupe potentiel de 2.680 victimes. Il est allégué qu'après avoir présenté ses projets d'outils de sécurité pour enfants, Apple "n'a pas mis en œuvre ces projets ou pris des mesures pour détecter et limiter les CSAM sur ses appareils", causant ainsi un préjudice aux victimes puisque les images ont continué à circuler.

Dans une déclaration à Engadget, le porte-parole d'Apple, Fred Sainz, a déclaré : "Le matériel relatif à l'abus sexuel d'enfants est abominable et nous sommes déterminés à lutter contre les méthodes utilisées par les délinquants sexuels pour mettre les enfants en danger. Nous travaillons intensément et activement sur des innovations pour lutter contre ces crimes sans compromettre la sécurité et la vie privée de tous nos utilisateurs. Des fonctionnalités telles que "Communication Safety", par exemple, avertissent les enfants lorsqu'ils reçoivent ou tentent d'envoyer des images de nudité, afin de briser la chaîne de la coercition qui conduit à l'abus sexuel d'enfants. Nous continuons à nous concentrer fortement sur le développement de mesures de protection qui contribuent à empêcher la propagation des MCSF avant qu'elle ne commence.

Cette plainte intervient quelques mois seulement après qu'Apple ait été accusée par la National Society for the Prevention of Cruelty to Children (NSPCC) britannique de ne pas avoir suffisamment signalé le CSAM.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *