Meta quiere que sus gafas con Inteligencia Artificial se parezcan cada vez menos a un gadget puntual y más a un dispositivo que mejora con el tiempo. Con ese enfoque, la compañía ha anunciado el despliegue de la actualización v21 para sus Ray-Ban Meta y Oakley Meta HSTN, un paquete de novedades que pone el acento en dos situaciones muy reconocibles: entender a alguien cuando hay ruido alrededor y poner música que encaje con lo que se está viendo gracias a una integración con Spotify.
El movimiento llega en plena campaña navideña, con el mensaje de que estas gafas “se vuelven más útiles” a base de software. Y, sobre todo, con una idea muy clara detrás: si las smart glasses quieren consolidarse, necesitan resolver problemas cotidianos sin obligar al usuario a sacar el móvil del bolsillo cada dos minutos. En esta v21, Meta intenta hacerlo por la vía del audio y de las experiencias multimodales, combinando voz, contexto visual y recomendaciones personalizadas.
Conversation Focus: amplificar la conversación en un entorno ruidoso
La función más “de la vida real” se llama Conversation Focus. Meta la presentó en su evento Connect a principios de año y ahora inicia su despliegue para usuarios del Early Access Program en Estados Unidos y Canadá. La promesa es sencilla: cuando el entorno se vuelve caótico —un restaurante lleno, un trayecto en tren, un bar o un evento con música alta—, las gafas pueden amplificar la voz de la persona con la que se está hablando, ayudando a distinguirla del ruido ambiente.
Según la compañía, la función aprovecha los altavoces open-ear (que dejan el oído “abierto”, sin aislar por completo) para que la voz se escuche ligeramente más alta y gane presencia frente al sonido de fondo. Además, el nivel de amplificación se puede ajustar de forma rápida: con un gesto en la patilla derecha o desde los ajustes del dispositivo, de manera que el usuario pueda adaptarlo según el lugar en el que esté.
El matiz importante es la disponibilidad: Meta no lo presenta como un botón universal para todos los compradores desde el primer día, sino como una función que comienza por el carril de pruebas y por mercados concretos. Es un patrón habitual en productos con IA: se activan novedades por fases para recoger feedback y pulir comportamiento antes de una expansión más amplia.
Meta AI + Spotify: pedir una canción “que encaje” con la escena
La otra gran novedad apunta al terreno de la música y, sobre todo, al “efecto wow”. Meta anuncia una colaboración con Spotify para ofrecer lo que describe como su primera experiencia musical multimodal en estas gafas: el usuario puede mirar una escena —o incluso una portada de álbum— y decir: “Hey Meta, play a song to match this view”. A partir de ahí, la propuesta es que el sistema combine reconocimiento visual con la personalización de Spotify para sugerir música o generar una lista adaptada a ese momento.
En la práctica, el enfoque es convertir el mundo en una especie de “input” continuo: lo que se ve, influye en lo que se escucha. Meta lo vende como una forma de “poner banda sonora” al entorno, especialmente en situaciones muy visuales (decoración navideña, paisajes, objetos reconocibles). Para Spotify, es también una manera de llevar su motor de recomendaciones a un formato nuevo, donde la búsqueda no depende de teclear ni de navegar por menús.
La letra pequeña, de nuevo, está en la disponibilidad. Meta especifica que esta experiencia con Spotify está disponible solo en inglés, aunque se habilita en una lista amplia de países que incluye España, además de Estados Unidos, Reino Unido, Canadá, Australia, Alemania, Francia, Italia, México, India, Emiratos Árabes Unidos y otros mercados. Es decir: se puede usar desde España, pero de momento pasa por el comando en inglés y por el despliegue progresivo.
El mensaje de fondo: más valor por software y más “gafas-auriculares”
Aunque Meta presenta estas funciones como novedades de producto, la lectura estratégica es más amplia. Conversation Focus y Spotify apuntan a un mismo sitio: que las gafas se justifiquen por el audio, por la voz y por el contexto, no solo por hacer fotos o grabar clips. La industria lleva tiempo empujando hacia esa idea de “auriculares con superpoderes”: manos libres, micrófonos, altavoces discretos y una capa de IA que interpreta el entorno.
La actualización v21 también refuerza la filosofía de que el hardware no se compra “cerrado”, sino que se va ampliando con nuevas capacidades. Meta, de hecho, anima a los usuarios interesados en recibir antes estas funciones a unirse a su programa de acceso temprano. El resultado es un ciclo parecido al de los móviles: el dispositivo se mantiene vivo mientras el software siga empujando utilidades que el usuario note en el día a día.
Queda por ver cómo evolucionan dos cuestiones clave: el ritmo de expansión geográfica de Conversation Focus (por ahora acotado a EEUU y Canadá en Early Access) y el salto de la experiencia con Spotify a más idiomas. Pero esta v21 deja clara la prioridad de Meta: que sus gafas no sean “una idea curiosa”, sino un producto que se use más cuanto menos te haga pensar en él.
Preguntas frecuentes
¿Cuándo llegará Conversation Focus a España en las Ray-Ban Meta?
Por ahora Meta lo está desplegando en el Early Access Program en Estados Unidos y Canadá. La llegada a otros países dependerá del calendario de expansión y de cómo evolucione la fase inicial.
¿La integración de Spotify en las gafas de Meta funciona en español?
De momento, Meta indica que la función está disponible solo en inglés, aunque se habilita en varios países, incluido España.
¿Cómo se activa y se ajusta Conversation Focus en las gafas con IA de Meta?
Meta explica que se puede ajustar la amplificación deslizando el dedo por la patilla derecha o desde los ajustes del dispositivo.
¿Qué significa que la experiencia con Spotify sea “multimodal” en estas gafas?
Que combina lo que el usuario ve (reconocimiento visual) con lo que pide por voz, para generar una recomendación musical contextual y personalizada.








