Mark Zuckerberg, PDG de Meta, a annoncé des mises à jour des lunettes intelligentes Ray-Ban Meta de l'entreprise lors du Meta Connect 2024 mercredi. Meta a continué à démontrer que les lunettes intelligentes peuvent être le prochain appareil grand public, en annonçant de nouvelles capacités d'IA et des fonctionnalités familières des smartphones qui seront intégrées aux Ray-Ban Meta plus tard dans l'année.
Parmi les nouvelles fonctionnalités de Meta, citons le traitement vidéo en temps réel par l'IA et la traduction en direct des langues. D'autres annonces (comme la numérisation des codes QR, les rappels et les intégrations avec iHeartRadio et Audible) semblent donner aux utilisateurs de Ray-Ban Meta les fonctionnalités de leurs smartphones qu'ils connaissent et apprécient déjà.
L'entreprise a annoncé : « Nous élargissons également la portée de Meta AI sur les lunettes Ray-Ban Meta à d’autres pays, permettant bientôt à un plus grand nombre de personnes à travers le monde de bénéficier de ces fonctionnalités. Nous aurons davantage d’informations sur ce sujet à partager plus tard dans l’année ».
Des vidéos en temps réel avec l’IA
Meta affirme que ses lunettes intelligentes seront bientôt dotées de capacités vidéo IA en temps réel, ce qui signifie que vous pouvez poser aux lunettes Ray-Ban Meta des questions sur ce que vous voyez devant vous, et Meta AI vous répondra verbalement en temps réel. Actuellement, les lunettes Ray-Ban Meta ne peuvent que prendre une photo et la décrire ou répondre à des questions à ce sujet, mais l'amélioration de la vidéo devrait rendre l'expérience plus naturelle, du moins en théorie. Ces fonctions multimodales devraient être disponibles dans le courant de l'année.
Dans une démonstration, les utilisateurs pouvaient poser à Ray-Ban Meta des questions sur un repas qu'ils étaient en train de préparer ou sur des scènes de la ville qui se déroulaient devant eux. Les capacités vidéo en temps réel signifient que l'IA de Meta devrait être en mesure de traiter l'action en direct et d'y répondre de manière audible.
Cependant, c'est plus facile à dire qu'à faire, et nous devrons voir à quel point la fonction est rapide et transparente dans la pratique. Nous avons vu des démonstrations de ces capacités vidéo d'IA en temps réel chez Google et OpenAI, mais Meta serait le premier à lancer de telles fonctionnalités dans un produit grand public.
Traduction en temps Réel
Zuckerberg a également annoncé la traduction en direct pour Ray-Ban Meta. Les utilisateurs anglophones peuvent parler à quelqu'un qui parle français, italien ou espagnol, et leurs lunettes Ray-Ban Meta devraient être capables de traduire ce que dit l'autre personne dans la langue de son choix. Meta précise que cette fonctionnalité sera disponible dans le courant de l'année et qu'elle inclura d'autres langues par la suite.
Il faut préciser que les commandes vocales sont disponibles en anglais, français et italien. Certaines fonctionnalités, comme poser des questions, trouver des informations ou générer du contenu avec Meta AI, ne sont disponibles qu’en anglais dans certains pays sélectionnés.
Rappels intelligents
Les lunettes Ray-Ban permettent désormais de créer des rappels basés sur ce que vous regardez. Par exemple, vous pouvez demander à l’IA de vous rappeler d’acheter un livre que vous avez vu en vitrine. Cette fonctionnalité rend les lunettes encore plus utiles au quotidien, en intégrant des tâches de gestion personnelle directement dans votre champ de vision.
Lors d'une démonstration, un utilisateur a demandé à ses lunettes Ray-Ban Meta de se souvenir d'une veste qu'il regardait afin de pouvoir partager l'image avec un ami plus tard.
Numérisation de Codes QR
La numérisation de codes QR est une autre fonctionnalité pratique ajoutée à ces lunettes. Les utilisateurs peuvent demander aux lunettes de scanner quelque chose, et le code QR s'ouvrira immédiatement sur le téléphone de la personne, sans aucune autre action nécessaire. Cette intégration fluide entre les lunettes et votre téléphone simplifie de nombreuses tâches courantes.
Les lunettes intelligentes seront également disponibles dans une gamme de nouveaux verres Transitions, qui réagissent à la lumière ultraviolette pour s'adapter à la luminosité de la pièce dans laquelle vous vous trouvez.
Meta a annoncé que des intégrations avec Amazon Music, Audible et iHeart allaient être intégrées à ses lunettes intelligentes. Cela devrait permettre aux utilisateurs d'écouter plus facilement de la musique sur le service de streaming de leur choix à l'aide des haut-parleurs intégrés aux lunettes.
Envoyé par Meta
Il n’est plus nécessaire de dire « Hey Meta » avant chaque question
Meta estime que l’intégration de Meta AI (qui n'est pas disponible en France pour le moment), permet de réaliser ses tâches plus facilement ou de rester en contact avec ses proches. Meta rappelle qu'elle enrichit constamment ses fonctionnalités d’IA, avec de nouvelles améliorations prévues dans les mois à venir.
Tout d’abord, interagir avec Meta AI devient plus fluide : il n’est plus nécessaire de prononcer « Hey Meta » avant chaque question. Désormais il suffira de démarrer par « Hey Meta » pour initier la conversation, puis d’enchaîner avec ses questions sans avoir à répéter l’appel initial.
Nous intégrons désormais une fonctionnalité permettant aux lunettes d’assister l’utilisateur dans la mémorisation de certaines informations. Par exemple, lors d’un prochain vol, plus besoin de se soucier de l’endroit où est garé sa voiture : les lunettes pourront enregistrer l’emplacement du véhicule dans le parking. Il est également possible d’utiliser sa voix pour programmer un rappel. En outre, les lunettes seront capables de réagir au texte consulté : il sera donc possible de lui demander d’appeler un numéro de téléphone sur une affiche ou de scanner un QR code.
Il est désormais possible de demander à Meta AI d’enregistrer et d’envoyer des messages vocaux sur WhatsApp et Messenger, permettant ainsi de rester pleinement présent tout en communiquant de manière plus personnelle et expressive. Chanter « Joyeux anniversaire » à son/sa meilleur(e) ami(e) ou partager une bonne nouvelle avec ses parents — le tout, sans même avoir à sortir son téléphone.
Nous intégrons désormais la vidéo à Meta AI, afin d’être assisté en temps réel en visualisant ce que voit l’utilisateur pendant une durée limitée. Cela rend les échanges plus fluides et naturels que jamais. Meta AI pourra se rappeler de ce que vous avez mentionné ou observé plus tôt dans la conversation et même anticiper les besoins en offrant son aide de manière proactive. Recevoir des idées de recettes pendant ses courses ou des conseils personnalisés en explorant une nouvelle ville.
Les lunettes auront bientôt la capacité de traduire les conversations en temps réel. Lorsque l’utilisateur dialogue avec une personne parlant espagnol, français ou italien, celles-ci seront traduites en anglais grâce aux haut-parleurs intégrés. Nous prévoyons d’ajouter le support d’autres langues à l’avenir afin d’enrichir encore davantage cette fonctionnalité.
Nous intégrons désormais une fonctionnalité permettant aux lunettes d’assister l’utilisateur dans la mémorisation de certaines informations. Par exemple, lors d’un prochain vol, plus besoin de se soucier de l’endroit où est garé sa voiture : les lunettes pourront enregistrer l’emplacement du véhicule dans le parking. Il est également possible d’utiliser sa voix pour programmer un rappel. En outre, les lunettes seront capables de réagir au texte consulté : il sera donc possible de lui demander d’appeler un numéro de téléphone sur une affiche ou de scanner un QR code.
Il est désormais possible de demander à Meta AI d’enregistrer et d’envoyer des messages vocaux sur WhatsApp et Messenger, permettant ainsi de rester pleinement présent tout en communiquant de manière plus personnelle et expressive. Chanter « Joyeux anniversaire » à son/sa meilleur(e) ami(e) ou partager une bonne nouvelle avec ses parents — le tout, sans même avoir à sortir son téléphone.
Nous intégrons désormais la vidéo à Meta AI, afin d’être assisté en temps réel en visualisant ce que voit l’utilisateur pendant une durée limitée. Cela rend les échanges plus fluides et naturels que jamais. Meta AI pourra se rappeler de ce que vous avez mentionné ou observé plus tôt dans la conversation et même anticiper les besoins en offrant son aide de manière proactive. Recevoir des idées de recettes pendant ses courses ou des conseils personnalisés en explorant une nouvelle ville.
Les lunettes auront bientôt la capacité de traduire les conversations en temps réel. Lorsque l’utilisateur dialogue avec une personne parlant espagnol, français ou italien, celles-ci seront traduites en anglais grâce aux haut-parleurs intégrés. Nous prévoyons d’ajouter le support d’autres langues à l’avenir afin d’enrichir encore davantage cette fonctionnalité.
En plus des mises à jour logicielles, Meta proposera de nouveaux kits de lentilles - y compris une lentille transparente en édition limitée qui mettra en valeur toute la technologie interne
Les nouvelles fonctionnalités des lunettes sont basées sur le dernier modèle Meta - Llama 3.2 AI, qui a également été présenté lors de l'événement Meta Connect.
Pour rappel, le coût des Meta Ray-Ban s'élève à 299 dollars. Les lunettes possèdent de petites lentilles de caméra qui capturent des photos de 12 mégapixels et des vidéos 1080p d'une durée maximale de 30 secondes, 32 Go de stockage interne, un processeur Qualcomm Snapdragon AR1 Gen 1, et une batterie qui dure de 4 à 6 heures d'utilisation active. Les Ray-Ban Meta Smart Glasses disposent également d'un système audio personnel, similaire aux montures Amazon Echo et à la série Bose Tempo (permettant de diffuser de la musique que seul l'utilisateur peut entendre).
Conclusion
Avec ces nouvelles fonctionnalités, les lunettes intelligentes Ray-Ban se positionnent comme un outil indispensable pour ceux qui cherchent à intégrer la technologie de pointe dans leur vie quotidienne. Elles ne se contentent plus de capturer des moments, mais deviennent un assistant personnel puissant, capable de répondre à vos besoins en temps réel.
Sources : Connect Keynote 2024, ce que vous pouvez dire avec « Hey Meta » sur les lunettes intelligentes Ray-Ban Meta
Et vous ?
Pensez-vous que l’intégration de l’IA en temps réel dans les lunettes intelligentes pose des risques pour la vie privée ? Pourquoi ou pourquoi pas ?
Dans quelles situations quotidiennes pensez-vous que ces lunettes pourraient être les plus utiles ?
Selon vous, ces lunettes intelligentes devraient-elles être accessibles à tous ou réservées à des usages spécifiques (professionnels, médicaux, etc.) ?
Comment imaginez-vous l’évolution des lunettes intelligentes dans les cinq prochaines années ? Quelles fonctionnalités aimeriez-vous voir ajoutées ?
Quel impact pensez-vous que ces lunettes pourraient avoir sur les interactions sociales et la communication en face à face ?
Seriez-vous prêt à investir dans ces lunettes malgré un coût potentiellement élevé ? Qu’est-ce qui pourrait vous convaincre de les acheter ?