Lunettes Meta IA
Meta a présenté deux gammes de lunettes IA : les Ray-Ban Meta (à caméra) et la nouvelle Meta Ray-Ban Display (avec incrustation couleur). La variante Display, présentée le 17 septembre 2025, affiche textes, appels et navigation directement dans le champ de vision et est contrôlée par un bracelet EMG. La deuxième génération des Ray-Ban Meta à caméra offre une autonomie plus longue et des vidéos en 3K.
Aperçu des lunettes Meta IA
Les Meta AI Glasses couvrent deux gammes de produits. Premièrement, les Ray-Ban Meta, des lunettes IA à caméra sans affichage, qui depuis 2023 fonctionnent avec des microphones, des haut-parleurs et une caméra de 12 MP en tant qu'assistant mains-libres. Deuxièmement, la nouvelle Meta Ray-Ban Display, qui utilise une petit incrustation couleur dans la lentille droite pour afficher des indices, des messages ou des traductions. Celle-ci est également contrôlée via le Neural Band au poignet. La variante Gen-2 des lunettes à caméra a augmenté en 2025 l'autonomie et la qualité vidéo, comme Meta l'a annoncé.
Chronologie & Situation actuelle
Le développement des Meta AI Glasses a commencé en 2023, lorsque Meta, en collaboration avec EssilorLuxottica, a présenté une nouvelle génération des Ray-Ban Meta, incluant le livestreaming et un assistant vocal ("Hey Meta"). En avril 2024, la fonction multimodale ("Look and ask") a été lancée d'abord aux États-Unis et au Canada en version bêta, comme Meta l'a annoncé. Le 23 avril 2025, Meta a étendu l'assistant vocal et la traduction en direct à d'autres pays de l'UE et a annoncé le déploiement progressif de la détection visuelle sur les marchés de l'UE, selon une autre annonce de Meta. Le 17 septembre 2025, deux actualités majeures: la Display-Brille (à partir de 799 USD, lancement US le 30 septembre, Neural Band inclus) et la Ray-Ban Meta Gen-2 (jusqu'à 8 heures d'utilisation typique, vidéo 3K, plus de langues lors de la traduction en direct). Techniquement, la Display-Brille utilise selon Road to VR notamment le Snapdragon AR1 Gen 1 de Qualcomm ainsi qu'un inlay couleur 600x600 pixels à 90 Hz et jusqu'à 5 000 nits pour la lisibilité en plein soleil.
Contexte stratégique et motivations
Le but de Meta avec ces développements est de libérer l'usage quotidien de l'IA du smartphone. Des micro-interactions comme la lecture des messages, la dictée de réponses ou la recherche d'un trajet devraient fonctionner sans regard sur l'écran. Cela s'inscrit dans la stratégie consistant à construire un écosystème propre d'IA, de wearables et, plus tard, d'AR à part entière, avec le prototype Orion visé à horizon 2024, comme Meta l'a exposé elle-même et confirmé dans d'autres rapports. Le messaging est un atout clé, mais iMessage d'Apple reste exclu pour l'instant; Meta confirme l'intégration pour WhatsApp et Messenger et pousse à des interfaces ouvertes, tandis qu'Apple freine, comme le rapportait Business Insider. Le buzz viral naît de petits moments "aha" visibles: sous-titres en direct, guides pas-à-pas, "montre-moi et explique-le" — des fonctionnalités faciles à filmer et partager, comme Meta l'a souligné dans une autre annonce.
Le flux de la keynote diffuse les déclarations et démonstrations originales dans leur intégralité.
Vérifications des faits et clarifications

Quelle: business.inquirer.net
Présentation des Meta AI Glasses sur scène.
Il est établi que les lunettes Display affichent des messages, des rappels d'appels, la navigation, des sous-titres en direct et des traductions dans le champ de vision. Le prix commence à 799 USD, la disponibilité aux États-Unis est à partir du 30 septembre 2025, et le Neural Band offre jusqu'à 18 heures d'autonomie et une certification IPX7, comme Meta l'a confirmé. La Ray-Ban Meta Gen-2 augmente l'autonomie jusqu'à environ 8 heures d'utilisation typique et propose une vidéo 3K avec jusqu'à 60 ips, ainsi qu'une traduction en direct améliorée, comme Meta l'a indiqué. Les spécifications techniques pour l'affichage (600x600, jusqu'à 5 000 nits, 90 Hz) et le Snapdragon AR1 Gen 1 sont documentées dans Road to VR.
Il est incertain de savoir dans quelle mesure l'entrée par gestes reste stable au quotidien avec des variations de peau et de physiologie musculaire et au fil de la journée. Meta se réfère à environ 200 000 participants à la recherche et à une fonctionnalité prête à l'emploi, mais les expériences à long terme manquent naturellement au démarrage, comme Meta l'a indiqué. La disponibilité de certaines fonctionnalités d'affichage (par ex. la bêta de la navigation en ville) peut également varier selon les régions, comme Road to VR l'a noté.
Plusieurs questions demeurent concernant la protection des données en Europe. Plusieurs procédures et avis portent sur la base juridique que Meta utilise pour l'entraînement IA et sur la manière dont l\'intérêt légitime est délimité. NOYB et des autorités ont pris des mesures en 2024/2025, comme NOYB, l'EDPB et le DPC l'ont signalé. Sur le plan technique, il reste à voir la robustesse de la lisibilité des affichages en plein soleil pour de petits textes, l'efficacité des sous-titres lors de conversations plus longues et l'évolution réelle de l'autonomie en mode mixte avec vidéo, musique et affichage, comme Road to VR l'a montré.

Quelle: justliberationnews.com
Présentation lors de la Meta Connect 2025.
Les Meta AI Glasses comblent le fossé entre l'oreille et l'œil : la lunette caméra pour "voir et demander", et la lunette Display pour "regarder rapidement et agir". Ce n'est pas un casque AR à part entière, mais une avancée concrète pour les micro-tâches quotidiennes lorsque les services et le cadre de protection des données le permettent, comme Meta l'a suggéré et dans d'autres rapports indiqué. Ceux qui recherchent une meilleure ergonomie et une liberté de regard trouveront ici une étape intermédiaire réaliste — avec du potentiel pour l'avenir, mais aussi des questions ouvertes que l'Europe examine avec attention, comme Meta l'a elle-même confirmé.