Apple invente sa propre version de Google Lens : Visual Intelligence

Apple a introduit avec l'iPhone 16 une nouvelle fonctionnalité appelée Visual Intelligence, qui semble être la réponse de l'entreprise à Google Lens. Présentée en septembre 2024, Visual Intelligence vise à aider les utilisateurs à interagir plus intelligemment avec le monde qui les entoure.

La nouvelle fonction est activée par un nouveau bouton tactile sur le côté droit de l'appareil appelé Camera Control. En un seul clic, Visual Intelligence peut identifier des objets, fournir des informations et suggérer des actions en fonction de l'endroit où la caméra est dirigée. Par exemple, si vous dirigez l'appareil photo vers un restaurant, le menu, les heures d'ouverture ou les évaluations s'affichent, et si vous photographiez un dépliant d'événement, vous pouvez l'ajouter directement à votre calendrier. Pointez l'appareil photo sur un chien pour identifier rapidement sa race ou cliquez sur un produit pour savoir où l'acheter en ligne.

Plus tard dans l'année, Camera Control servira également d'accès à des outils de fournisseurs tiers disposant d'une expertise spécifique, indique le communiqué de presse d'Apple. Les utilisateurs pourront par exemple utiliser Google pour la recherche de produits ou ChatGPT pour la résolution de problèmes, tout en gardant le contrôle sur le moment et la manière d'accéder à ces outils et sur les informations qui seront partagées.
Apple souligne que cette fonctionnalité a été développée dans le respect de la vie privée, ce qui signifie que l'entreprise n'a pas accès aux détails de l'identification ou de la recherche des utilisateurs.

Apple affirme que Visual Intelligence protège la vie privée de l'utilisateur en traitant les données sur l'appareil lui-même, garantissant ainsi que l'entreprise ne sait pas sur quoi l'utilisateur a cliqué.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *