Seis meses después de su lanzamiento, la pantalla Meta Ray-Ban empieza a parecer menos un experimento, gracias a la que posiblemente sea la actualización más importante que Meta haya impulsado hasta la fecha para este dispositivo.
La característica principal es la escritura neuronal a mano, que ahora está disponible para todos los propietarios de Ray-Ban Display, después de haber estado disponible durante los primeros meses con acceso limitado para los usuarios de Messenger y WhatsApp.
¿Qué es la escritura neuronal?
Para quienes no estén al tanto, esta función utiliza la Neural Band, la pulsera sEMG que Meta incluye con las gafas de 799 dólares, para detectar movimientos sutiles de los dedos. Luego, traduce esos movimientos en texto escrito en una aplicación.
Para usar esta función, ponte las gafas Ray-Ban Display y, con la Neural Band puesta en la muñeca, mueve los dedos como si estuvieras escribiendo una carta. Las gafas pueden convertir tus movimientos de dedos (en el aire) en un mensaje de WhatsApp, Messenger, Instagram o la aplicación de mensajería nativa de tu teléfono.
Esta función está disponible tanto en Android como en iOS. Si bien abre un nuevo caso de uso para las Ray-Ban Meta Display y sin duda está generando bastante revuelo, la actualización también permite, por primera vez, que desarrolladores de aplicaciones web de terceros accedan al dispositivo .
¿Qué más actualizó Meta?
En mi opinión, eso suena a que Meta está tratando las gafas como una plataforma, y no solo como un producto que vende a los usuarios finales.
Esto podría permitir a los desarrolladores crear asistentes de IA, herramientas de productividad, superposiciones de navegación, funciones de accesibilidad y experiencias controladas por gestos que podrían ampliar el atractivo del dispositivo más allá de la mensajería y la captura de contenido multimedia.
Además de estas dos novedades, Meta también incorpora la función de grabación de pantalla a las gafas, un nuevo modo que captura la imagen de la pantalla del objetivo, las imágenes de la cámara y el audio ambiental en un único archivo de vídeo.
Las indicaciones para caminar ahora cubren todo Estados Unidos, además de las principales ciudades internacionales como Londres, París y Roma. La función de subtítulos en tiempo real se está ampliando a los mensajes de voz de WhatsApp , Messenger e Instagram DM. Además, Muse Spark AI llegará a las gafas este verano.
