Las gafas inteligentes de Meta siguen evolucionando para consolidarse como un accesorio de uso cotidiano.
Así lo evidencia la llegada de la versión de software v21, en el que la compañía introduce dos funciones que apuntan directamente a problemas reales: escuchar mejor a las personas en ambientes ruidosos y conectar lo que ves con la música que escuchas.
La actualización, que comienza a desplegarse de forma gradual, marca un nuevo paso en la evolución de las Ray-Ban Meta y las Oakley Meta HSTN como dispositivos impulsados por inteligencia artificial.
Enfoque de conversación: escuchar sin aislarse
(Meta)
La novedad más relevante de v21 es Conversation Focus, una función diseñada para amplificar la voz de la persona con la que estás hablando cuando el ruido ambiental se vuelve dominante. A diferencia de los audífonos tradicionales, las Meta AI Glasses utilizan altavoces de oído abierto, lo que permite mantener la percepción del entorno mientras la inteligencia artificial realza el audio de la conversación principal.
En la práctica, esto significa que en un restaurante concurrido, en el transporte público o en un bar, la voz del interlocutor se percibe ligeramente más clara y presente frente al ruido de fondo. El nivel de amplificación no es fijo: se puede ajustar deslizando el dedo por la patilla derecha de las gafas o desde los ajustes del dispositivo, lo que permite adaptar la experiencia a cada situación sin sacar el teléfono del bolsillo.
Aunque esta función se estrena inicialmente en Estados Unidos y Canadá, su implementación confirma una tendencia clara: las gafas inteligentes empiezan a ocupar un espacio que antes pertenecía a dispositivos de asistencia auditiva ligera, pero sin asumir ese rol de manera explícita.
Spotify entra en escena: música que responde a lo que ves
(Meta)
La segunda gran adición de la actualización v21 es la integración con Spotify, que lleva la idea de la IA multimodal a un uso más cotidiano. A través de comandos de voz, las gafas pueden reproducir música relacionada con lo que el usuario está mirando en ese momento.
Basta decir “Hey Meta, pon una canción que combine con lo que estoy viendo” para que el sistema cruce la información visual captada por las cámaras con las preferencias musicales del usuario en Spotify.
El resultado puede ser tan literal como reproducir una canción de un artista cuando se enfoca la carátula de un álbum, o más contextual, como activar música acorde a una escena navideña, una calle iluminada o un momento específico del día. Más allá de lo anecdótico, esta función deja ver cómo Meta busca unir visión computacional, reconocimiento de contexto y servicios de terceros en una sola experiencia continua.
Por ahora, esta integración está disponible en inglés y en varios mercados internacionales, entre ellos México, Brasil, España y Estados Unidos, lo que la convierte en una de las funciones con mayor alcance geográfico dentro de esta actualización.
Un despliegue gradual y con acceso anticipado
(Meta)
La versión v21 no llega de forma inmediata a todos los usuarios. Meta ha optado por un despliegue progresivo que comienza con quienes hacen parte de su Early Access Program, un programa que requiere inscripción previa y aprobación.
A medida que se recopile retroalimentación, las funciones se habilitarán para un público más amplio en las Ray-Ban Meta, tanto de primera como de segunda generación, y en las Oakley Meta HSTN.
Este enfoque refuerza la idea de que las gafas no son un producto cerrado, sino una plataforma que gana capacidades con el tiempo, especialmente a través de software.
Ver 0 comentarios