Ya hemos visto en muchas ocasiones como Apple prioriza la accesibilidad de sus servicios y plataformas hasta límites insospechados. En iOS 14 y iPadOS 14, aunque haya podido pasar desapercibido para muchos, Apple ha dado un empujón más a la accesibilidad, algo que nos cuentan un par de ingenieros en una nueva entrevista.
Accesibilidad desde la concepción del producto
Tras el rediseño de su sitio web sobre accesibilidad Apple ha querido continuar destacando la labor de sus equipos en facilitar que sus productos puedan ser utilizados por todo el mundo. El ingeniero de accesibilidad de iOS Chris Fleizach y el miembro del equipo de inteligencia artificial Jeff Bigham han concedido una entrevista a TechCrunch en la que han hablado sobre cómo la compañía ha evolucionado las capacidades de accesibilidad de iOS 13 gracias a la cooperación y al Machine Learning.
Una de las mayores mejoras en la accesibilidad de iOS 14 ha sido la posibilidad de que el sistema reconozca el contenido de la pantalla. Esta es una nueva iteración respecto a VoiceOver. Para que VoiceOver funcione los desarrolladores deben etiquetar correctamente sus menús, botones y secciones para que el sistema pueda leer en voz alta las etiquetas y permitir así una navegación a las personas que tienen alguna dificultad visual. En iOS 14 el reconocimiento de pantalla utiliza "la inteligencia del dispositivo para reconocer los elementos de la pantalla y mejorar VoiceOver para apps y la web".
Es …