Seguimiento ocular en iOS 18 y su influencia en la accesibilidad y UX

Accesibilidad
22/10/2024
|
Torresburriel Estudio
Primer plano de un ojo humano, donde se destacan los detalles del iris en tonos verdes, azules y amarillos, con un reflejo luminoso en la pupila. Las pestañas y la textura de la piel alrededor del ojo son claramente visibles, resaltando la profundidad y complejidad del órgano visual.

Imagina poder controlar tu teléfono sin tocarlo, solo con la mirada. Parece algo sacado de una película futurista, ¿verdad? Pues ya no lo es. Con el iOS 18 y su innovadora tecnología de seguimiento ocular, esta idea se ha convertido en una realidad. 

Si llevas un tiempo leyendo nuestro blog, sabrás que uno de los temas que más nos apasiona es hablar de accesibilidad. Hemos explorado muchas maneras de hacer la tecnología más inclusiva, como con la navegación por teclado, la elección de colores y la redacción de textos de lectura fácil, entre otros temas. 

Pero hoy nos adentramos en un terreno completamente nuevo: ¿cómo cambia el eye-tracking la forma en que interactuamos con nuestros dispositivos? Y, lo más importante, ¿qué significa esto para la accesibilidad, la personalización y la experiencia de usuario (UX)?

En este post, vamos a descubrir las ventajas y limitaciones de esta tecnología, cómo puede personalizar las interacciones en tiempo real, y cuál es su impacto en la accesibilidad digital.

¿Qué es el seguimiento ocular y por qué es importante?

El seguimiento ocular, o eye-tracking, permite que el dispositivo detecte hacia dónde está mirando el usuario en la pantalla y responda en consecuencia. Hasta ahora, este tipo de tecnología estaba más asociada a equipos especializados o entornos de investigación, pero Apple ha decidido integrarlo en sus dispositivos iPhone, haciéndolo accesible para un público mucho más amplio.

En términos de accesibilidad, esta herramienta tiene un enorme potencial. Las personas con discapacidades motrices podrán navegar por sus dispositivos sin necesidad de tocar la pantalla. Simplemente con los ojos podrán seleccionar botones, abrir aplicaciones o incluso escribir, lo que abre una nueva dimensión de accesibilidad digital.

Pantalla de tablet con una interfaz de usuario colorida, donde destacan iconos y widgets organizados. Al lado derecho, aparece una persona en silla de ruedas usando la tablet. La escena transmite el uso de tecnología accesible, probablemente utilizando funciones como el seguimiento ocular u otros métodos adaptativos para facilitar el uso del dispositivo.
Fuente: Apple

¿Cómo funciona?

Este proceso combina sensores avanzados y algoritmos para detectar hacia dónde estás mirando y traducirlo en acciones concretas. A continuación, te explicamos cómo funciona de forma sencilla:

  1. El iPhone utiliza cámaras y sensores para rastrear el movimiento de tus ojos en tiempo real.
  2. Los sensores detectan el punto específico de la pantalla donde estás mirando.
  3. Algoritmos avanzados procesan esta información y determinan qué acción realizar.
  4. El dispositivo ejecuta la acción, como seleccionar o deslizar, basada en tu mirada.

Es como si tus ojos fueran un ratón o un control remoto que le dice al iPhone lo que quieres hacer.

Personalización e interacción en tiempo real: ¿Qué aportan a la UX?

Otra de las grandes promesas del seguimiento ocular en los dispositivos Apple es la personalización. Al entender hacia dónde mira el usuario, el dispositivo puede anticiparse a sus necesidades. Por ejemplo, en lugar de tener que deslizar o tocar la pantalla, el teléfono podría predecir qué acción quiere realizar el usuario en función de dónde está mirando.

Sin embargo, esto también puede presentar un riesgo en términos de UX: una interfaz demasiado «inteligente» puede llegar a confundir o frustrar si no se ajusta bien a las intenciones del usuario. Un exceso de personalización basada en seguimiento ocular podría generar falsas interpretaciones o sobrecarga de interacción. 

En el Estudio creemos que, si bien la personalización es importante, debe ejecutarse de manera que el usuario siempre tenga el control final sobre sus acciones.

Limitaciones del seguimiento ocular en iOS 18

Aunque esta nueva tecnología traiga muchos puntos positivos, hay algunas limitaciones que no podemos ignorar. 

Fallos de precisión 

El seguimiento ocular requiere precisión, y esto depende tanto de las condiciones de luz como de la anatomía del usuario. Hemos notado que en algunos contextos puede haber fallos de precisión que pueden frustrar al usuario, especialmente en tareas más finas como la selección de pequeños íconos o botones. Apple está trabajando para mejorar esto, pero es un reto al que se enfrentan todas las tecnologías emergentes.

Esfuerzo cognitivo 

Por otro lado, debemos tener en cuenta el esfuerzo cognitivo que puede requerir el uso prolongado de esta funcionalidad. Mirar constantemente a diferentes partes de la pantalla y mantener la atención puede resultar agotador para algunos usuarios, lo que puede reducir la efectividad de la herramienta en sesiones prolongadas. 

Para nosotros, es muy importante balancear la interacción intuitiva con la comodidad del usuario.

Aún queda por ver cómo evolucionará esta tecnología y cómo los desarrolladores seguirán optimizando para hacerla más precisa y cómoda. Estamos seguros de que el seguimiento ocular tiene el potencial de transformar la forma en que experimentamos la tecnología, y estamos al tanto para ver cómo seguirá evolucionando en el futuro.


Foto de Arteum.ro en Unsplash

¿Quieres darnos tu impresión sobre este post?

Deja una respuesta

Aquí va tu texto personalizado.

Blog

Nos encanta compartir lo que sabemos sobre diseño de producto y experiencia de usuario.
Ver todo el blog
Puedes consultarnos lo que necesites
Envíanos un mensaje
Nombre
Email
Mensaje
Gracias por escribirnos. Nuestro equipo se pondrá en contacto contigo tan pronto como sea posible.
Ha ocurrido un error. Estamos trabajando para resolverlo. Puedes escribirnos al chat.
Mastodon