Gafas Meta AI: conversación mejorada e integración con Spotify

  • Meta lanza la actualización v21 para las gafas Ray-Ban Meta y Oakley Meta HSTN con nuevas funciones de IA.
  • El modo Conversation Focus amplifica la voz del interlocutor en entornos ruidosos con control táctil en la patilla.
  • La integración con Spotify permite reproducir música en función de lo que el usuario está viendo en cada momento.
  • Despliegue gradual vía programa Early Access y disponibilidad de funciones diferenciada por países, con presencia en España y varios mercados europeos.

gafas inteligentes Meta AI con integracion Spotify

Con la actualización v21, las Ray-Ban Meta y las Oakley Meta HSTN incorporan dos funciones de inteligencia artificial centradas en la conversación y el contexto: un modo para escuchar mejor a la persona con la que hablamos en ambientes saturados de sonido y una integración con Spotify que cruza lo que captan las cámaras con nuestras preferencias musicales.

Un nuevo paso en las gafas inteligentes de Meta

La versión de software v21 se está distribuyendo de forma gradual y refuerza la idea de que las gafas de Meta funcionan como una plataforma en constante evolución, más que como un producto cerrado. A través de mejoras de software, los modelos actuales ganan capacidades sin necesidad de cambiar el hardware, algo clave en un segmento todavía joven como el de los wearables de realidad aumentada ligera.

Estas novedades se centran en dos ámbitos muy concretos: por un lado, la mejora de la experiencia auditiva en entornos complicados, y por otro, el uso de la visión computacional para conectar lo que el usuario ve con servicios externos como Spotify. Ambos frentes apuntan a la misma dirección: hacer que las gafas resulten más prácticas en situaciones reales, no solo como curiosidad tecnológica.

Meta ha dejado claro que la actualización está pensada tanto para las Ray-Ban Meta de primera y segunda generación como para las Oakley Meta HSTN, lo que amplía el número de usuarios que pueden acceder a estas funciones, siempre que se encuentren en alguno de los países incluidos en el despliegue.

Enfoque de conversación: oír mejor sin aislarse del entorno

La gran protagonista de la actualización es Conversation Focus, un sistema que busca hacer más llevaderas las charlas en lugares con mucho ruido ambiental, como bares o transporte público. A diferencia de unos auriculares in-ear o de unos audífonos clásicos, las gafas de Meta utilizan altavoces de oído abierto, de modo que no sellan el canal auditivo ni desconectan por completo del entorno.

  Xiaomi Tag, la nueva alternativa al AirTag de Apple

Lo que hace esta función es aprovechar los micrófonos y los algoritmos de IA para resaltar la voz de la persona con la que estamos hablando frente al murmullo de fondo. El resultado no es un silencio absoluto alrededor, sino una sensación de que el interlocutor se escucha algo más claro y cercano, suficiente para seguir una conversación sin tener que estar pidiendo que repitan cada frase.

El nivel de refuerzo del audio no está fijado: el usuario puede subir o bajar la intensidad deslizando el dedo por la patilla derecha de las gafas, o bien ajustarlo desde el menú de configuración en la app. Esta combinación de sensores, procesamiento local y controles táctiles busca que no haga falta sacar el móvil del bolsillo para hacer un simple ajuste.

Situaciones típicas en las que esta función puede marcar la diferencia incluyen desde restaurantes llenos, vagones de tren con mucho movimiento o terrazas muy concurridas hasta reuniones informales en locales con música alta. Meta insiste en que no pretende sustituir a un dispositivo médico, pero sí cubrir esa franja de uso en la que algunas personas empiezan a notar que, en ciertos ambientes, entender a los demás se complica.

Por el momento, Conversation Focus se estrena en Estados Unidos y Canadá, donde Meta irá recogiendo comentarios y datos de uso antes de plantearse llevarla a más regiones. Se trata de una aproximación prudente que permite ajustar el comportamiento del sistema en función de situaciones reales.

Música ligada a lo que ves: integración con Spotify

La segunda gran novedad de la actualización v21 es la integración directa con Spotify, que aplica la IA multimodal para relacionar la imagen que captan las cámaras con la música que se reproduce. La idea es que el usuario pueda pedir por voz una canción o lista que encaje con la escena que tiene delante, sin abrir el móvil ni buscar manualmente.

  Meta abandona el metaverso y redobla su apuesta por la IA y las gafas inteligentes

Con un comando como “Hey Meta, pon una canción que combine con lo que estoy viendo”, las gafas envían la información visual capturada a los sistemas de Meta, que la cruzan con las preferencias musicales y el historial del usuario en Spotify. A partir de ahí, el sistema elige una pista o lista de reproducción que, en teoría, encaje con ese contexto.

En la práctica, esto puede funcionar de manera muy literal o algo más creativa. Si el usuario enfoca, por ejemplo, la portada de un álbum físico, el sistema puede optar por una canción de ese artista. Pero si la escena es una calle con luces de Navidad, una zona verde o una terraza al atardecer, la selección apunta más a playlists de ambiente, temas festivos o música relajada, según el momento y los hábitos musicales de cada persona.

Meta reconoce que esta característica tiene un componente experimental y lúdico, pero la ve como un anticipo de cómo quiere unir visión computacional, reconocimiento de contexto y servicios de terceros en un único flujo. La idea es que el dispositivo “entienda” mejor lo que está pasando a tu alrededor y actúe sin que tengas que dar instrucciones milimétricas.

En cuanto al alcance, la integración con Spotify está disponible en inglés y se ofrece en un buen número de mercados internacionales. Entre los países mencionados se encuentran España y varios Estados europeos como Francia, Alemania, Italia, Bélgica, Austria, Dinamarca, Finlandia, Noruega, Suecia, Irlanda o el Reino Unido, además de territorios como Brasil, México, India, Emiratos Árabes Unidos, Canadá, Australia y Estados Unidos.

Despliegue escalonado y programa de acceso anticipado

Meta no ha optado por lanzar la v21 de golpe para todo el mundo. La empresa está aplicando un despliegue progresivo que arranca con su Early Access Program, un programa de acceso anticipado que requiere inscripción previa y validación por parte de la compañía. Son estos usuarios los primeros en recibir las nuevas funciones y en aportar comentarios sobre su rendimiento.

  Meta abandona el metaverso y redobla su apuesta por la IA y las gafas inteligentes

A medida que se recopila esta retroalimentación, Meta va afinando detalles y planea extender la actualización al resto de propietarios de Ray-Ban Meta y Oakley Meta HSTN en los mercados compatibles. No se ha comunicado una fecha cerrada para que todos los usuarios tengan acceso, lo que deja cierto margen de incertidumbre, pero también permite a la empresa corregir el rumbo antes de una disponibilidad masiva.

Este modelo de lanzamiento no es nuevo en el sector tecnológico, pero en el caso de las gafas inteligentes cobra especial relevancia. Hablamos de productos que, además de cámaras y micrófonos, incorporan cada vez más funciones sensibles relacionadas con audio ambiente y reconocimiento de escenas, por lo que un despliegue escalonado reduce riesgos en cuanto a comportamiento inesperado o posibles preocupaciones de privacidad.

En Europa, usuarios de países como España, Francia, Alemania o Italia pueden beneficiarse especialmente de la integración con Spotify, mientras que el enfoque de conversación, al menos en su primera fase, se mantiene limitado a Norteamérica. No sería extraño que, si los resultados son positivos, Meta se plantee ampliar esta herramienta auditiva a otros idiomas y regiones.

La actualización v21 refuerza la apuesta de Meta por unas gafas que se apoyan en la IA para ganar utilidad práctica: de escuchar mejor a la persona que tenemos enfrente a llenar de música los momentos que captan sus cámaras, todo sin perder de vista que el despliegue es gradual y con diferencias claras según el país. Para los usuarios europeos y españoles interesados en este tipo de dispositivos, el movimiento dibuja un escenario en el que estas gafas dejan de ser un simple capricho tecnológico y empiezan a ocupar un hueco más definido dentro del ecosistema digital personal.

Vuzix Blade 3000
Artículo relacionado:
Vuzix Blade 3000, unas gafas de sol con realidad aumentada