I Ray-Ban Meta Smart Glasses funzionavano già bene come fotocamera montata sulla testa e come cuffie aperte, ma ora Meta sta aggiornando gli occhiali con l'accesso all'AI dal vivo senza la necessità di una parola di attivazione, la traduzione dal vivo tra diverse lingue e l'accesso a Shazam per identificare la musica.
Meta ha presentato la maggior parte di queste funzionalità per la prima volta al Meta Connect 2024 di settembre. Con Live AI, è possibile avviare una "sessione live" con Meta AI, che dà all'assistente accesso a tutto ciò che si vede, e si possono fare domande senza dover dire "Hey Meta". Se avete bisogno di avere le mani libere mentre cucinate o aggiustate qualcosa, Live AI farà in modo che i vostri occhiali intelligenti siano utili anche quando dovete concentrarvi su ciò che state facendo.
Con la traduzione dal vivo, gli occhiali intelligenti possono tradurre tra inglese e francese, italiano o spagnolo. Quando la traduzione dal vivo è attivata e qualcuno vi parla in una delle lingue selezionate, sentirete ciò che la persona sta dicendo, sia attraverso gli altoparlanti degli occhiali intelligenti sia come trascrizione digitata nell'app Meta View. Per tradurre da una lingua all'altra, è necessario scaricare alcuni modelli e attivare la traduzione dal vivo prima che il dispositivo funga effettivamente da interprete, ma sembra più naturale che tenere in mano il cellulare per tradurre qualcosa.
Grazie all'integrazione di Shazam, i vostri occhiali dati Meta possono anche identificare qualsiasi canzone che sentite intorno a voi. Con un semplice "Meta, che canzone è?", i microfoni degli occhiali dati possono scoprire cosa state ascoltando, proprio come se lo sapeste da Shazam sul vostro smartphone.
Tutti e tre gli aggiornamenti avvicinano l'indossabile all'obiettivo di Meta di sviluppare veri e propri occhiali per la realtà aumentata in grado di sostituire lo smartphone. L'hardware sperimentale Orion è una vera e propria anticipazione di questa idea. La combinazione di AI e VR o AR sembra essere un'idea perseguita anche da diversi giganti della tecnologia. L'ultima piattaforma XR di Google, Android XR, si basa sull'idea che un'intelligenza artificiale generativa come Gemini possa essere il collante per rendere avvincenti la VR o la AR. Ci vorranno anni prima che un'azienda sia pronta a cambiare effettivamente il campo visivo con immagini olografiche, ma nel frattempo gli smartglass sembrano un utile ripiego.
Tutti i possessori di Ray-Ban Meta Smart Glasses possono contare sull'integrazione di Shazam come parte dell'aggiornamento Meta v11. Le traduzioni dal vivo e la Live AI richiedono la partecipazione all'Early Access Programme di Meta, ora disponibile sul sito web dell'azienda.