Gafas IA de Meta

Avatar
Lisa Ernst · 20.09.2025 · Tecnología · 5 minutos

Meta presentó dos líneas de gafas con IA: las Ray-Ban Meta (basadas en cámara) y las nuevas Ray-Ban Meta Display (con incrustación de color en el cristal derecho). La variante Display, presentada el 17 de septiembre de 2025, coloca textos, llamadas y navegación directamente en el campo de visión y se controla mediante una pulsera EMG. La segunda generación de las gafas Ray-Ban Meta basadas en cámara ofrece mayor autonomía y vídeo 3K.

Visión general de las gafas Meta IA

Las gafas Meta IA abarcan dos líneas de productos. En primer lugar, las Ray-Ban Meta, unas gafas con IA basadas en cámara, que desde 2023 funcionan como asistente manos libres con micrófonos, altavoces y una cámara de 12 MP. En segundo lugar, las nuevas Ray-Ban Display, que utilizan un pequeño incrustado de color en el cristal derecho para mostrar indicaciones, mensajes o traducciones. Este dispositivo se controla además mediante la Neural Band en la muñeca. La Gen-2 de las gafas basadas en cámara aumentó en 2025 la duración de la batería y la calidad del vídeo, como Meta informó.

Cronología y estado actual

El desarrollo de las Meta AI Glasses comenzó en 2023, cuando Meta, junto con EssilorLuxottica, presentó una nueva generación de las Ray-Ban Meta que incluía streaming en vivo y un asistente de voz ("Hey Meta"). En abril de 2024, la función multimodal (Look and ask) se lanzó en Estados Unidos y Canadá como beta, según Meta anunció. El 23 de abril de 2025, Meta expandió el asistente de voz y la traducción en vivo a más países de la UE, y anunció la detección visual para mercados de la UE, según otra nota de Meta. El 17 de septiembre de 2025 siguieron dos noticias centrales: las Gafas Display (desde 799 USD, lanzamiento en EE. UU. el 30 de septiembre, Neural Band incluido) y las Ray-Ban Meta Gen-2 (hasta 8 horas de uso típico, vídeo 3K, más idiomas en la traducción en vivo). Técnicamente, la Display utiliza, según Road to VR, entre otras cosas, el Snapdragon AR1 Gen 1 de Qualcomm, así como un inlay de 600x600 píxeles hasta 90 Hz y hasta 5.000 nits para legibilidad en luz solar.

Contexto estratégico y motivaciones

Meta busca con estas evoluciones romper la dependencia diaria de la IA respecto al teléfono. Micro-interacciones como leer mensajes, dictar respuestas o encontrar la ruta deben funcionar sin mirar la pantalla. Esto encaja con la estrategia de construir un ecosistema propio de IA, wearables y, más adelante, AR plenamente funcional, con el prototipo Orion como objetivo a largo plazo, tal y como lo explicó Meta en su blog y se confirmó en otros comunicados, mientras que la integración con iMessage queda excluida por ahora; Meta insiste en APIs abiertas para WhatsApp y Messenger, ante la cautela de Apple, como reportó Business Insider. El fenómeno viral proviene de momentos cortos y visibles: subtítulos en vivo, guías paso a paso, “muéstrame eso y explícalo” — funciones fáciles de filmar y compartir, como Meta destacó.

YouTube

La transmisión de la keynote ofrece las declaraciones y demos en su duración completa.

Verificación de hechos y aclaraciones

Presentación de las gafas Meta IA en un escenario, que subraya la introducción oficial y la visión de Meta para el futuro de los wearables.

Quelle: business.inquirer.net

Presentación de las gafas Meta IA en un escenario.

Se confirma que la gafas Display muestran mensajes, indicaciones de llamadas, navegación, subtítulos en vivo y traducciones en el campo visual. El precio empieza en 799 USD, la disponibilidad en EE. UU. es desde el 30 de septiembre de 2025, y la Neural Band tiene hasta 18 horas de autonomía y certificación IPX7, como informó Meta. La Gen-2 de Ray-Ban Meta aumenta la duración de la batería hasta 8 horas de uso típico y ofrece vídeo 3K con más idiomas en la traducción en vivo, según Meta. Detalles técnicos del Display (600x600, hasta 5.000 nits, 90 Hz) y el uso de Snapdragon AR1 Gen 1 quedan documentados también en Hands-on de Road to VR.

Es cuestionable cuán estable funciona el control por gestos en la vida diaria con diferentes tipos de piel y musculación a lo largo del día. Meta señala pruebas con alrededor de 200,000 participantes y facilidad de uso “out-of-the-box”, pero faltan datos de largo plazo en su lanzamiento inicial, según Meta. También la disponibilidad de características del Display (p. ej., la navegación en beta en ciudades) puede variar por región, como lo documentó Road to VR.

La afirmación “esto es AR real” no es exacta. Las Meta Ray-Ban Display utilizan un mini-display para superposiciones, pero no es AR 3D completo con hologramas estables en el espacio como en prototipos de AR de alta gama, según Meta misma. La afirmación “funciona igual en toda la UE” es engañosa: Meta está implementando funciones de IA por países; las funciones visuales de Q&A llegaron más tarde y de forma selectiva, sujeto a requisitos legales, según Meta.

Reacciones y críticas

Vista de Realidad Aumentada a través de las gafas Meta IA, que muestra indicaciones de navegación directamente en el campo de visión del usuario y la integración de IA en la vida diaria.

Quelle: news.sky.com

Vista de Realidad Aumentada con las gafas Meta IA.

Las reacciones de la prensa van desde “gran tecnología, demostración imperfecta” hasta “posible cambio de juego”. Reuters y Bloomberg coinciden en cubrir el precio de salida, la fecha de lanzamiento y la ambición de reemplazar tareas de móvil, como Reuters y Bloomberg indicaron. TechCrunch clasifica las gafas Display como un “producto usable” por debajo de los objetivos de AR completos que podrían venir más tarde, según TechCrunch. Las voces críticas señalan que las demos en vivo no estuvieron a la altura y podrían chocar con ecosistemas cerrados (p. ej., iMessage), como comentó Business Insider.

Implicaciones y preguntas abiertas

Prácticamente, esto significa que quien busque información rápida, subtítulos, respuestas breves o navegación en su día a día, puede evitar consultar el teléfono gracias a estas gafas Display. Su utilidad depende de los servicios que se utilicen (WhatsApp, Messenger) y de las funciones de IA disponibles en la región, como explicó Meta y se precisó en otros comunicados. En Suiza, la Ray-Ban Meta Gen-2 ya está disponible para pedir; se desplegaron más idiomas (incluido el alemán) para la traducción en vivo, como anunció Meta. Antes de comprar, conviene revisar las listas de funciones regionales y la disponibilidad de entrega a través de las páginas de ayuda de Meta y Ray-Ban.

YouTube

Un breve clip práctico muestra la experiencia de la Display y explica el manejo por gestos mediante el brazalete.

Las preguntas abiertas se centran en la privacidad en Europa. Varios procesos y declaraciones tratan la base legal para el entrenamiento de IA y cómo se delimita un interés legítimo. NOYB y autoridades han iniciado acciones y evaluaciones en 2024/2025, como NOYB, el EDPB y el DPC informaron. Técnicamente sigue en duda cuán robusta es la legibilidad en sol directo para textos finos, qué tan bien funcionan los subtítulos en conversaciones largas y cómo se desenvuelve la autonomía en uso mixto de vídeo, música y Display, como mostró Road to VR.

Presentación en Meta Connect 2025 que destaca el compromiso de Meta con el desarrollo de las gafas IA y su papel en el futuro de la tecnología.

Quelle: justliberationnews.com

Presentación en Meta Connect 2025.

Las gafas Meta IA cierran la brecha entre oído y ojo: la gafas con cámara para "ver y preguntar", la gafas Display para "echar un vistazo rápido y actuar". No es un casco AR completo, pero sí un avance real para tareas micro cotidianas, siempre que los servicios y el marco de privacidad encajen, como sugieren Meta y otros reportes. Quienes busquen una mejor ergonomía y libertar la mirada encontrarán aquí un paso intermedio real — con potencial de mejora, pero con preguntas abiertas que Europa vigila de cerca, como señaló Meta.

Teilen Sie doch unseren Beitrag!