Los iPhone ahora pueden reconocer y etiquetar botones y funciones de interfaz de usuario automáticamente para usuarios ciegos


manzana siempre se ha esforzado por crear funciones para usuarios con discapacidades, y VoiceOver en iOS es una herramienta invaluable para cualquier persona con discapacidad visual, asumiendo que cada elemento de la interfaz se haya etiquetado manualmente. Pero la compañía acaba de presentar una nueva función que utiliza el aprendizaje automático para identificar y etiquetar cada botón, control deslizante y pestaña automáticamente.

El reconocimiento de pantalla, disponible ahora en iOS 14, es un sistema de visión por computadora que ha sido entrenado en miles de imágenes de aplicaciones en uso, aprendiendo cómo se ve un botón, qué significan los íconos, etc. Estos sistemas son muy flexibles: dependiendo de los datos que les proporcione, pueden convertirse en expertos en detectar gatos, expresiones faciales o, como en este caso, las diferentes partes de una interfaz de usuario.

El resultado es que en cualquier aplicación ahora, los usuarios pueden invocar la función y una fracción de segundo después se etiquetarán todos los elementos de la pantalla. Y por «todos», quieren decir cada – después de todo, los lectores de pantalla deben ser conscientes de todo lo que un usuario vidente vería y con lo que podría interactuar, desde imágenes (de las que iOS ha podido crear resúmenes de una oración durante algún tiempo) hasta íconos comunes (inicio , atrás) y de contexto específico como los menús “…” que aparecen en casi todas partes.

La idea no es hacer que el etiquetado manual sea obsoleto: los desarrolladores saben mejor cómo etiquetar sus propias aplicaciones, pero las actualizaciones, los estándares cambiantes y las situaciones desafiantes (interfaces en el juego, por ejemplo) pueden hacer que las cosas no sean tan accesibles como podrían ser.

Conversé con Chris Fleizach del equipo de ingeniería de accesibilidad de iOS de Apple, y Jeff Bigham del equipo de accesibilidad de AI / ML, sobre el origen de esta nueva característica extremadamente útil. (Se describe en un documento que se presentará el próximo año).

Un teléfono que muestra una foto de dos mujeres sonriendo y una voz en off que describe la foto.

Créditos de imagen: Apple

“Buscamos áreas en las que podamos hacer avances en accesibilidad, como descripciones de imágenes”, dijo Fleizach. “En iOS 13 etiquetamos los íconos automáticamente. El reconocimiento de pantalla da un paso más. Podemos mirar los píxeles en la pantalla e identificar la jerarquía de objetos con los que puede interactuar, y todo esto sucede en el dispositivo en décimas de segundo «.

La idea no es nueva, exactamente; Bigham mencionó un lector de pantalla, Outspoken, que hace años intentó usar datos a nivel de píxel para identificar elementos de la interfaz de usuario. Pero si bien ese sistema necesitaba coincidencias precisas, la lógica difusa de los sistemas de aprendizaje automático y la velocidad de los aceleradores de inteligencia artificial integrados en los iPhones significan que el reconocimiento de pantalla es mucho más flexible y poderoso.

No hubiera sido posible hace solo un par de años: el estado del aprendizaje automático y la falta de una unidad dedicada para ejecutarlo significaba que algo como esto habría sido extremadamente agotador para el sistema, demorando mucho más y probablemente agotando el batería todo el tiempo.

Pero una vez que este tipo de sistema pareció posible, el equipo se puso a trabajar en la creación de un prototipo con la ayuda de su personal dedicado a la accesibilidad y la comunidad de pruebas.

“VoiceOver ha sido el abanderado de la accesibilidad visual durante mucho tiempo. Si observa los pasos en el desarrollo del reconocimiento de pantalla, se basó en la colaboración entre equipos: accesibilidad completa, nuestros socios en la recopilación y anotación de datos, IA / ML y, por supuesto, diseño. Hicimos esto para asegurarnos de que nuestro desarrollo de aprendizaje automático continuara avanzando hacia una excelente experiencia de usuario ”, dijo Bigham.

Se hizo tomando miles de capturas de pantalla de aplicaciones y juegos populares, y luego etiquetándolos manualmente como uno de varios elementos estándar de la interfaz de usuario. Estos datos etiquetados se enviaron al sistema de aprendizaje automático, que pronto se volvió competente para seleccionar esos mismos elementos por sí solo.

No es tan simple como parece: como seres humanos, nos hemos vuelto bastante buenos para comprender la intención de un gráfico o un fragmento de texto en particular, y muy a menudo podemos navegar incluso en interfaces abstractas o diseñadas de forma creativa. No es tan claro para un modelo de aprendizaje automático, y el equipo tuvo que trabajar con él para crear un conjunto complejo de reglas y jerarquías que garanticen que la interpretación del lector de pantalla resultante tenga sentido.

La nueva capacidad debería ayudar a que millones de aplicaciones sean más accesibles, o simplemente accesibles, para los usuarios con discapacidad visual. Puede activarlo yendo a la configuración de accesibilidad, luego a VoiceOver, luego al reconocimiento de VoiceOver, donde puede activar y desactivar el reconocimiento de imágenes, pantalla y texto.

No sería trivial llevar el reconocimiento de pantalla a otras plataformas, como Mac, así que no se haga ilusiones en eso todavía. Pero el principio es sólido, aunque el modelo en sí no se puede generalizar a las aplicaciones de escritorio, que son muy diferentes de las móviles. Quizás otros asuman esa tarea; la perspectiva de las funciones de accesibilidad impulsadas por la inteligencia artificial apenas comienza a hacerse realidad.



Fuente: TechCrunch

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad