Pronto podrás controlar tu iPhone y iPad con tus ojos

Controlar el iPad con el movimiento de los ojos.
Manzana

Apple ha anunciado un montón de nuevas funciones de accesibilidad que llegarán a finales de este año para los propietarios de iPhone y iPad. Entre ellos destaca la capacidad de interactuar con interfaces iOS y iPadOS mediante el movimiento ocular, algo que se ve en un sistema similar en hardware Mac.

La compañía lo llama Eye Tracking y es un sistema construido sobre los cimientos de Dwell Control. Hasta ahora, Dwell Control ha estado disponible como parte del Teclado de Accesibilidad en macOS, lo que permite a los usuarios ejecutar acciones del mouse mediante gestos con los ojos y la cabeza.

En iPhone y iPad, Eye Tracking solo requerirá unos segundos para calibrarse y funcionará con la cámara frontal. Una vez habilitado, permitirá a los usuarios con discapacidades físicas realizar gestos de deslizar y presionar botones con sus movimientos oculares.

Las acciones de permanencia también están disponibles para los auriculares Vision Pro. En la costosa máquina XR, están incluidos como parte del sistema Assistive Touch en la configuración de accesibilidad. En las máquinas Mac, los gestos con los ojos y la cabeza permiten hacer clic con el mouse, arrastrar y soltar, y otros gestos de control de la interfaz de usuario principal.

Hápticos musicales en iPhone.
Manzana

Para los usuarios con problemas auditivos, Apple está agregando una función en los iPhone llamada Music Haptics. Una vez activado, el Taptic Engine instalado dentro de un iPhone producirá vibraciones sincronizadas con la reproducción de música utilizando una combinación de toques rítmicos, vibraciones suaves y texturas.

Esta función ya ha sido certificada para los millones de canciones de la biblioteca de Apple Music. Los desarrolladores también pueden aprovechar las interfaces de programación de aplicaciones (API) para permitir comentarios de accesibilidad basados ​​en vibraciones para hacer que sus aplicaciones sean más inclusivas y funcionalmente gratificantes para las personas con problemas de audición.

Atajos de voz en iPhone.
Manzana

Para las personas que viven con dificultades relacionadas con el habla, Apple está agregando un par de funciones nuevas a sus teléfonos y tabletas. El primero es el habla atípica, que se basa en el aprendizaje automático para identificar la firma del habla única de una persona para poder ayudarla a realizar tareas mediante comandos de voz.

El siguiente en la fila son los atajos vocales. Éste permite a los usuarios grabar señales de audio personalizadas y luego asignarlas como accesos directos para diversas tareas en el dispositivo, que pueden ser de un solo paso o de varios pasos. Apple dice que estas funciones han sido "diseñadas para usuarios con afecciones adquiridas o progresivas que afectan el habla, como parálisis cerebral, esclerosis lateral amiotrófica (ELA) o accidente cerebrovascular".

Señales de movimiento del vehículo en iPhone.
Manzana

Otra próxima característica relacionada es Personal Voice. Las personas a las que les resulta difícil decir o leer frases largas pueden crear una voz personal utilizando frases más cortas.

Apple también ha desarrollado una función de bienestar que tiene en cuenta el mareo por movimiento en circunstancias dentro del vehículo. La función en cuestión se llama Señales de movimiento del vehículo y, una vez habilitada, mostrará puntos animados en la pantalla que están alineados dinámicamente con el movimiento direccional de un vehículo. La idea es reducir el conflicto sensorial, facilitando a los usuarios la lectura del contenido en pantalla.