Dans iOS 18.2, Apple ajoute une nouvelle fonctionnalité qui reprend certaines des intentions derrière les plans d'analyse CSAM qui ont été stoppés - cette fois sans interrompre le cryptage de bout en bout ou créer des portes dérobées pour le gouvernement. L'extension de la fonction de sécurité des communications de l'entreprise, qui sera d'abord lancée en Australie, utilise l'apprentissage automatique sur l'appareil pour détecter et flouter les images de nudité, ajoute des avertissements et demande une confirmation avant que l'utilisateur ne puisse continuer. Si l'enfant a moins de 13 ans, il ne peut pas continuer sans entrer le code de temps d'écran de l'appareil.
Si la fonction d'apprentissage automatique intégrée de l'appareil détecte des images de nudité, elle rend automatiquement la photo ou la vidéo méconnaissable, affiche un avertissement indiquant qu'il peut s'agir d'un contenu sensible et offre la possibilité de demander de l'aide. Les options incluent le fait de quitter le
La fonction affiche également un message assurant à l'enfant qu'il est en ordre de ne pas regarder le contenu ou de quitter le chat. Il est également possible d'envoyer un message à un parent ou un tuteur. Si l'enfant est âgé de 13 ans ou plus, il peut, après avoir reçu ces avertissements, confirmer qu'il souhaite continuer en lui rappelant à nouveau qu'il est acceptable de se déconnecter et que de l'aide supplémentaire est disponible. Selon The Guardian, la fonction comprend également la possibilité de signaler des images et des vidéos à Apple.
Cette fonction analyse les photos et les vidéos de l'iPhone et de l'iPad dans les messages, AirDrop, les messages de contact (dans l'application Téléphone ou Contact) et les messages vidéo FaceTime. En outre, "certaines applications tierces" sont analysées lorsque l'enfant sélectionne une photo ou une vidéo à partager.
Les applications prises en charge varient légèrement en fonction de l'appareil. Sur Mac, les messages et certaines applications tierces sont analysés lorsque les utilisateurs sélectionnent le contenu à partager via ces applications. Sur l'Apple Watch, les messages, les annonces de contact et les messages vidéo FaceTime sont scannés. Enfin, sur Vision Pro, la fonction scanne les messages, AirDrop et certaines apps tierces (dans les mêmes conditions que ci-dessus).
Cette fonction nécessite iOS 18, iPadOS 18, macOS Sequoia ou visionOS 2.
The Guardian rapporte qu'Apple prévoit de déployer cette fonctionnalité dans le monde entier après l'avoir testée en Australie. L'entreprise a probablement choisi le pays Down Under pour une raison précise : Le pays devrait introduire de nouvelles réglementations exigeant des Big Tech qu'elles surveillent les abus sur enfants et les contenus terroristes. Dans le cadre de ces nouvelles réglementations, l'Australie a accepté d'insérer une clause stipulant que cela n'est nécessaire que "dans la mesure où cela est techniquement possible" et de renoncer à l'exigence de briser le cryptage de bout en bout et de compromettre la sécurité. Les entreprises doivent se conformer à ces dispositions d'ici la fin de l'année.
La protection de la vie privée et la sécurité des utilisateurs ont été au cœur de la controverse entourant la fameuse tentative d'Apple de surveiller CSAM. En 2021, l'entreprise préparait l'introduction d'un système qui rechercherait sur Internet des images d'abus sexuels et les enverrait à des contrôleurs humains. (Ce fut un sacré choc après qu'Apple se soit opposée au FBI dans le passé lorsque celui-ci a tenté de débloquer l'iPhone d'un terroriste).
Les experts en matière de protection des données et de sécurité ont fait valoir que cette fonction ouvrait une porte dérobée aux régimes autoritaires pour espionner leurs citoyens dans des situations où il n'y avait pas matière à exploitation. L'année suivante, Apple a abandonné cette fonction, ce qui a conduit (indirectement) à la fonction de contrôle parental plus équilibrée annoncée aujourd'hui.