Les lunettes connectées Meta Ray-Ban intègrent désormais l’intelligence artificielle. Nous les avons utilisées.
Les Humane Ai Pin auront été l’un des premiers produits matériels IA, visant à intégrer les meilleures fonctionnalités des smartphones IA dans un appareil autonome. Les premières impressions n’ont pas été très bonnes. Elles sont même plutôt mauvaises. Heureusement, on pense avoir trouvé la solution idéale : les lunettes connectées Ray-Ban de Meta.
Je porte des lunettes tous les jours de toute façon, donc je pense que c’est le format idéal. J’ai les lunettes Meta Ray-Ban depuis un moment, et j’ai même opté pour des verres correcteurs pour pouvoir les porter en permanence. On pourrait peut-être obtenir un résultat similaire pour les commandes vocales de l’IA avec des écouteurs sans fil, mais cela impliquerait un supplément. De plus, on passerait à côté de toutes les autres fonctionnalités des lunettes connectées Meta, qui étaient déjà plutôt performantes. Mais laissez-moi vous montrer comment utiliser ces lunettes maintenant qu’elles sont dotées de l’IA.

Le produit IA idéal ?
Commençons par les fonctionnalités non liées à l’IA. Les lunettes Meta Ray-Ban sont équipées de haut-parleurs orientés vers le bas qui se dirigent directement vers vos oreilles. Meta estime qu’elles sont suffisamment silencieuses pour que personne d’autre n’entende le son. Mais ce n’est pas si simple. Si vous êtes assis chez vous au calme, quelqu’un pourrait certainement entendre le son à côté de vous. En revanche, en déplacement, il est peu probable qu’il entende quoi que ce soit.
Ces haut-parleurs sont parfaits pour écouter de la musique depuis votre téléphone, comme des écouteurs sans fil. Mais j’ai constaté qu’ils sont particulièrement utiles pour répondre aux appels. Parler à quelqu’un au téléphone sans écouteurs ou en tenant le combiné contre l’oreille, c’est magique. C’est la flexibilité des appels téléphoniques avec des écouteurs, mais avec seulement vos lunettes ! Les microphones sont également très performants. Et vous pouvez utiliser les deux pour parler à l’assistant de Meta. Il peut envoyer des messages pour vous, les lire à voix haute et dispose désormais de fonctionnalités d’IA (plus d’informations à ce sujet plus tard).
L’appareil photo est également intégré aux objectifs, idéal pour prendre des photos ou des vidéos en POV. Il ne s’agit que d’un capteur de 12 MP en 1080p, mais je suis impressionné par la qualité d’image, comme d’autres. On peut publier directement sur les réseaux sociaux et même diffuser en direct, et tout se synchronise avec l’application. Personnellement, quand j’utilise les lunettes, c’est un peu étrange que Facebook me surveille, mais je m’y suis habitué maintenant. Et je retire mes lunettes quand je veux être très prudent. L’appareil photo clignote en blanc lorsque je prends une photo ou une vidéo. Mais le capteur est assez visible, comme l’ont souligné plusieurs personnes.

Mais c’est l’intelligence artificielle qui rend les lunettes connectées Meta Ray-Ban si spéciales. Elles intègrent désormais Meta AI, optimisée par le modèle Llama. Il s’agit en quelque sorte d’un chatbot IA au format vocal. Vous pouvez lui poser des questions et il vous répondra, et pratiquement rien ne lui est impossible. C’est aussi un excellent outil pour réfléchir ou trouver une information que je recherche habituellement rapidement sur Google. Si j’ai besoin d’aide pour écrire un titre ou une ligne de code, il me dit quoi écrire.
Ce qui ressort vraiment, c’est la fonction vision. Les lunettes peuvent prendre une photo avec l’appareil photo et identifier ce que vous regardez. C’est un peu gadget au début ; je lui ai demandé d’identifier l’iPhone que je tenais (et il a réussi). Mais plus je l’utilise, plus elle est devenue utile. Elle peut vous donner des informations sur ce que vous regardez, résumer un texte que vous lisez ou traduire des panneaux dans une langue que vous comprenez.
En gros, tout ce que vous attendiez de la Humane Pin, elle le fait. Et plus vite. Les caractéristiques de Meta sont un peu déroutantes pour ce qui est de la localisation. Elle connaît la ville où je me trouve, mais ne peut pas me dire ce qui se trouve à proximité (même si d’autres personnes ont demandé des recommandations à proximité). Et le modèle d’IA est confus, car il ne connaît pas votre position, contrairement au matériel. Bizarre. Mais à part ça, je n’ai rien à redire, rien à demander, rien… rien. J’adore les utiliser, et je pense que c’est le matériel d’IA parfait.

Quelle est la prochaine étape pour les lunettes Meta Ray-Ban ?
Je suis très convaincu par les lunettes Meta et je compte bien les garder. Il n’y a pas d’interface utilisateur compliquée à prendre en main, et elles ne feront que s’améliorer. Bien que Humane essaie d’offrir un affichage, cela a donné lieu à quelque chose de maladroit. Meta mise tout sur la voix, et c’est tant mieux. Si je veux un écran, je suis satisfait d’utiliser mon téléphone.
Est-ce que je pense que les lunettes Meta Ray-Ban sont parfaites avec l’IA ? Absolument pas. L’IA de Meta est plus limitée que les autres offres d’IA. ChatGPT est peut-être la plus développée et serait l’exemple parfait pour cela. De plus, je porte Facebook sur mon visage. Beurk. Mais elle gère la plupart de mes demandes et reconnaît très bien les aspects grâce à la caméra intégrée. Ajoutez à cela les fonctionnalités existantes et vous avez une solution gagnante.
