iOS 18.2 contiene una funzione di controllo parentale che può essere utilizzata per rendere irriconoscibili le immagini di nudo e segnalarle ad Apple.

Con iOS 18.2, Apple sta aggiungendo una nuova funzione che riprende alcune delle intenzioni alla base dei piani di scansione CSAM interrotti - questa volta senza rompere la crittografia end-to-end o creare backdoor per il governo. Il miglioramento della funzione di sicurezza delle comunicazioni dell'azienda, in fase di lancio inizialmente in Australia, utilizza l'apprendimento automatico sul dispositivo per rilevare e de-identificare le immagini di nudo, aggiunge avvisi e richiede una conferma prima che l'utente possa procedere. Se il bambino ha meno di 13 anni, non può procedere senza inserire il codice di accesso allo schermo del dispositivo.

Se la funzione di apprendimento automatico integrata nel dispositivo riconosce immagini di nudo, rende automaticamente irriconoscibile la foto o il video, visualizza un avviso che indica che il contenuto potrebbe essere sensibile e offre la possibilità di chiedere aiuto. Le opzioni includono l'abbandono del

La funzione visualizza anche un messaggio che rassicura il bambino sul fatto che è giusto non visualizzare il contenuto o lasciare la chat. È inoltre possibile inviare un messaggio a un genitore o a un tutore. Se il bambino ha 13 anni o più, dopo aver ricevuto questi avvertimenti, può confermare di voler continuare, ricordandogli di nuovo che è giusto disconnettersi e che è disponibile un ulteriore aiuto. Secondo The Guardian, la funzione include anche la possibilità di segnalare immagini e video ad Apple.

La funzione analizza le foto e i video presenti su iPhone e iPad nei messaggi, in AirDrop, nei messaggi dei contatti (nell'app Telefono o Contatti) e nei videomessaggi FaceTime. Esegue inoltre la scansione di "alcune app di terze parti" quando il bambino seleziona una foto o un video da condividere.

Le applicazioni supportate variano leggermente a seconda del dispositivo. Sul Mac, i messaggi e alcune app di terze parti vengono scansionati quando gli utenti selezionano i contenuti da condividere tramite queste app. Sull'Apple Watch, vengono analizzati i messaggi, gli annunci personali e i videomessaggi FaceTime. Infine, su Vision Pro, la funzione esegue la scansione dei messaggi, di AirDrop e di alcune app di terze parti (alle stesse condizioni di cui sopra).

La funzione richiede iOS 18, iPadOS 18, macOS Sequoia o visionOS 2.
Il Guardian riporta che Apple ha intenzione di distribuire la funzione in tutto il mondo dopo averla testata in Australia. L'azienda ha probabilmente scelto il Paese del Sud per un motivo: Il Paese dovrebbe introdurre nuove norme che impongono alle Big Tech di monitorare gli abusi sui minori e i contenuti terroristici. Nell'ambito della nuova normativa, l'Australia ha accettato di includere una clausola che prevede che ciò sia richiesto solo "laddove tecnicamente fattibile" e di rinunciare al requisito di rompere la crittografia end-to-end e mettere a rischio la sicurezza. Le aziende dovranno implementare la normativa entro la fine dell'anno.

La privacy e la sicurezza degli utenti sono state al centro della controversia sul famigerato tentativo di Apple di monitorare il CSAM. Nel 2021, l'azienda si stava preparando a lanciare un sistema che avrebbe setacciato Internet alla ricerca di immagini di abusi sessuali e le avrebbe inviate a revisori umani. (Questo è stato un vero e proprio shock dopo che in passato Apple aveva sfidato l'FBI nel tentativo di sbloccare l'iPhone di un terrorista).

Gli esperti di privacy e sicurezza sostenevano che questa funzione avrebbe aperto una porta di servizio ai regimi autoritari per spiare i propri cittadini in situazioni in cui non c'è materiale da sfruttare. L'anno successivo Apple ha abbandonato la funzione, il che ha portato (indirettamente) alla funzione di controllo parentale più equilibrata che è stata annunciata.

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *