Apple inventa la sua versione di Google Lens: l'intelligenza visiva

Con l'iPhone 16 Apple ha introdotto una nuova funzione chiamata Visual Intelligence, che sembra essere la risposta dell'azienda a Google Lens. Visual Intelligence è stata introdotta nel settembre 2024 ed è stata progettata per aiutare gli utenti a interagire in modo più intelligente con il mondo che li circonda.

La nuova funzione si attiva tramite un nuovo pulsante sensibile al tocco sul lato destro del dispositivo, chiamato Camera Control. Con un solo clic, Visual Intelligence è in grado di identificare gli oggetti, fornire informazioni e suggerire azioni in base al punto in cui è puntata la telecamera. Ad esempio, se si punta la fotocamera su un ristorante, vengono visualizzati il menu, gli orari di apertura o le recensioni, mentre se si fotografa il volantino di un evento, è possibile aggiungerlo direttamente al calendario. Puntando la fotocamera su un cane si può identificare rapidamente la razza o fare clic su un prodotto per scoprire dove è possibile acquistarlo online.

Secondo il comunicato stampa di Apple, più avanti nel corso dell'anno Camera Control fungerà anche da porta d'accesso a strumenti di terze parti con competenze specifiche. Ad esempio, gli utenti potranno utilizzare Google per la ricerca di prodotti o ChatGPT per la risoluzione dei problemi, mantenendo il controllo su quando e come si accede a questi strumenti e su quali informazioni vengono condivise.
Apple sottolinea che la funzione è stata sviluppata tenendo conto della protezione dei dati, il che significa che l'azienda non ha accesso ai dettagli dell'identificazione o delle ricerche degli utenti.

Apple sostiene che Visual Intelligence protegge la privacy dell'utente elaborando i dati sul dispositivo stesso, garantendo così che l'azienda non sappia su cosa l'utente ha cliccato.

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *