Secondo quanto riportato dal New York Times, Apple è stata citata in giudizio dalle vittime di abusi sessuali su minori per non aver attuato i suoi piani di ricerca su iCloud di materiale pedopornografico (CSAM). Nel 2021 Apple aveva annunciato di essere al lavoro su uno strumento di rilevamento di CSAM che avrebbe segnalato le immagini che mostravano tali abusi e notificato il National Center for Missing and Exploited Children. Tuttavia, l'azienda si è subito scontrata con le implicazioni per la privacy di questa tecnologia e alla fine ha abbandonato il progetto.
La causa, depositata sabato nel nord della California, chiede oltre 1,2 miliardi di dollari di danni per una potenziale classe di 2.680 vittime, secondo il NYT. La causa sostiene che, dopo aver presentato gli strumenti di controllo parentale previsti da Apple, l'azienda "non ha implementato tali progetti o non ha preso provvedimenti per rilevare e limitare il CSAM sui suoi dispositivi", danneggiando le vittime mentre le immagini continuavano a circolare.
In una dichiarazione rilasciata a Engadget, il portavoce di Apple Fred Sainz ha affermato: "Il materiale pedopornografico è esecrabile e ci impegniamo a combattere i metodi utilizzati dagli autori di reati sessuali per mettere a rischio i bambini. Stiamo lavorando intensamente e attivamente sulle innovazioni per combattere questi crimini senza mettere a rischio la sicurezza e la privacy di tutti i nostri utenti. Funzioni come "Communication Safety", ad esempio, avvisano i bambini quando ricevono o tentano di inviare immagini di nudo per spezzare la catena di coercizione che porta all'abuso sessuale sui minori. Continuiamo a concentrarci sullo sviluppo di salvaguardie che aiutino a prevenire la diffusione del CSAM prima che inizi.
L'azione legale arriva pochi mesi dopo che Apple è stata accusata dalla National Society for the Prevention of Cruelty to Children (NSPCC) del Regno Unito di non aver segnalato adeguatamente il CSAM.