Apple erfindet seine eigene Version von Google Lens: Visual Intelligence

Apple hat mit dem iPhone 16 eine neue Funktion namens Visual Intelligence eingeführt, die die Antwort des Unternehmens auf Google Lens zu sein scheint. Visual Intelligence wurde im September 2024 vorgestellt und soll den Nutzern helfen, intelligenter mit der Welt um sie herum zu interagieren.

Die neue Funktion wird über eine neue berührungsempfindliche Taste auf der rechten Seite des Geräts namens Camera Control aktiviert. Mit einem Klick kann Visual Intelligence Objekte identifizieren, Informationen bereitstellen und Aktionen vorschlagen, je nachdem, worauf die Kamera gerichtet ist. Richten Sie die Kamera beispielsweise auf ein Restaurant, werden Speisekarte, Öffnungszeiten oder Bewertungen angezeigt, und wenn Sie einen Veranstaltungsflyer fotografieren, können Sie ihn direkt in Ihren Kalender eintragen. Richten Sie die Kamera auf einen Hund, um die Rasse schnell zu identifizieren, oder klicken Sie auf ein Produkt, um herauszufinden, wo Sie es online kaufen können.

Später in diesem Jahr wird Camera Control auch als Zugang zu Tools von Drittanbietern mit speziellem Fachwissen dienen, heißt es in der Pressemitteilung von Apple. So können die Nutzer beispielsweise Google für die Produktsuche oder ChatGPT für die Problemlösung nutzen, wobei sie die Kontrolle darüber behalten, wann und wie auf diese Tools zugegriffen wird und welche Informationen freigegeben werden.
Apple betont, dass die Funktion unter Berücksichtigung des Datenschutzes entwickelt wurde, was bedeutet, dass das Unternehmen keinen Zugriff auf die Einzelheiten der Identifizierung oder Suche der Nutzer hat.

Apple behauptet, dass Visual Intelligence die Privatsphäre des Nutzers schützt, indem es die Daten auf dem Gerät selbst verarbeitet und so sicherstellt, dass das Unternehmen nicht weiß, worauf der Nutzer geklickt hat.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert