In iOS 18.2 fügt Apple eine neue Funktion hinzu, die einige der Absichten hinter den gestoppten CSAM-Scanning-Plänen wieder aufgreift – diesmal ohne die Ende-zu-Ende-Verschlüsselung zu unterbrechen oder Hintertüren für die Regierung zu schaffen. Die Erweiterung der Kommunikationssicherheitsfunktion des Unternehmens, die zunächst in Australien eingeführt wird, nutzt maschinelles Lernen auf dem Gerät, um Nacktbilder zu erkennen und zu unkenntlich zu machen, fügt Warnungen hinzu und verlangt eine Bestätigung, bevor der Benutzer fortfahren kann. Wenn das Kind unter 13 Jahre alt ist, kann es nicht fortfahren, ohne den Bildschirmzeit-Passcode des Geräts einzugeben.
Wenn die integrierte maschinelle Lernfunktion des Geräts Nacktbilder erkennt, macht sie das Foto oder Video automatisch unkenntlich, zeigt eine Warnung an, dass es sich um sensible Inhalte handeln könnte, und bietet die Möglichkeit, Hilfe anzufordern. Zu den Optionen gehört das Verlassen des
Die Funktion zeigt auch eine Nachricht an, die dem Kind versichert, dass es in Ordnung ist, den Inhalt nicht anzusehen oder den Chat zu verlassen. Es besteht auch die Möglichkeit, eine Nachricht an einen Elternteil oder Erziehungsberechtigten zu senden. Wenn das Kind 13 Jahre oder älter ist, kann es, nachdem es diese Warnungen erhalten hat, bestätigen, dass es fortfahren möchte, indem es erneut daran erinnert wird, dass es in Ordnung ist, sich abzumelden, und dass weitere Hilfe verfügbar ist. Laut The Guardian beinhaltet die Funktion auch die Möglichkeit, Bilder und Videos an Apple zu melden.
Die Funktion analysiert Fotos und Videos auf dem iPhone und iPad in Nachrichten, AirDrop, Kontakt-Posts (in der Telefon- oder Kontakt-App) und FaceTime-Videonachrichten. Außerdem werden „bestimmte Apps von Drittanbietern“ gescannt, wenn das Kind ein Foto oder Video zum Teilen auswählt.
Die unterstützten Anwendungen unterscheiden sich je nach Gerät geringfügig. Auf dem Mac werden Nachrichten und einige Apps von Drittanbietern gescannt, wenn Benutzer Inhalte auswählen, die über diese Apps geteilt werden sollen. Auf der Apple Watch werden Nachrichten, Kontaktanzeigen und FaceTime-Videonachrichten gescannt. Auf Vision Pro schließlich scannt die Funktion Nachrichten, AirDrop und einige Apps von Drittanbietern (unter den gleichen Bedingungen wie oben).
Die Funktion erfordert iOS 18, iPadOS 18, macOS Sequoia oder visionOS 2.
The Guardian berichtet, dass Apple plant, die Funktion nach dem Test in Australien weltweit einzuführen. Das Unternehmen hat sich wahrscheinlich aus einem bestimmten Grund für das Land Down Under entschieden: Das Land wird voraussichtlich neue Vorschriften einführen, die von Big Tech verlangen, Kindesmissbrauch und terroristische Inhalte zu überwachen. Als Teil der neuen Vorschriften hat Australien zugestimmt, eine Klausel einzufügen, dass dies nur „soweit technisch machbar“ erforderlich ist, und auf die Anforderung zu verzichten, die End-to-End-Verschlüsselung zu brechen und die Sicherheit zu gefährden. Die Unternehmen müssen die Bestimmungen bis Ende des Jahres umsetzen.
Der Schutz der Privatsphäre und die Sicherheit der Nutzer standen im Mittelpunkt der Kontroverse um Apples berüchtigten Versuch, CSAM zu überwachen. Im Jahr 2021 bereitete das Unternehmen die Einführung eines Systems vor, das das Internet nach Bildern sexuellen Missbrauchs durchsuchen und diese an menschliche Prüfer senden sollte. (Dies war ein ziemlicher Schock, nachdem sich Apple in der Vergangenheit dem FBI widersetzt hatte, als dieses versuchte, das iPhone eines Terroristen zu entsperren.)
Datenschutz- und Sicherheitsexperten argumentierten, dass diese Funktion autoritären Regimen eine Hintertür öffnen würde, um ihre Bürger in Situationen auszuspionieren, in denen es kein Material zur Ausbeutung gibt. Im darauf folgenden Jahr gab Apple die Funktion auf, was (indirekt) zu der jetzt angekündigten ausgewogeneren Kindersicherungsfunktion führte.