Apple ha annunciato nuove funzioni di accessibilità in arrivo entro la fine dell’anno, tra cui Etichette Nutrizionali Accessibili, che forniranno informazioni più dettagliate su app e giochi sull’App Store. Gli utenti non vedenti o ipovedenti potranno esplorare, imparare e interagire utilizzando la nuova app Lente di Ingrandimento per Mac; prendere appunti ed eseguire calcoli con la nuova funzione Accesso Braille; e sfruttare il potente sistema di fotocamere di Apple Vision Pro con i nuovi aggiornamenti di visionOS. Ulteriori annunci includono Lettore Accessibile, una nuova modalità di lettura a livello di sistema progettata per l’accessibilità, insieme ad aggiornamenti ad Ascolto dal Vivo, Suoni di Sottofondo, Voce Personale, Segnali di Movimento del Veicolo e altro ancora. Sfruttando la potenza di Apple Silicon, insieme ai progressi nell’apprendimento automatico e nell’intelligenza artificiale sui dispositivi, gli utenti sperimenteranno un nuovo livello di accessibilità nell’intero ecosistema Apple.
“In Apple, l’accessibilità è parte del nostro DNA – ha affermato Tim Cook, ceo di Apple – Rendere la tecnologia accessibile a tutti è una priorità per tutti noi e siamo orgogliosi delle innovazioni che condivideremo quest’anno. Tra queste, strumenti che aiutano le persone ad accedere a informazioni cruciali, esplorare il mondo che le circonda e fare ciò che amano“.
“Forti di 40 anni di innovazione nell’accessibilità in Apple, ci impegniamo a promuovere nuove funzionalità di accessibilità per tutti i nostri prodotti – ha affermato Sarah Herrlinger, Senior Director Global Accessibility Policy and Initiatives di Apple – Grazie al supporto dell’ecosistema Apple, queste funzionalità interagiscono perfettamente per offrire agli utenti nuovi modi di interagire con ciò che più li interessa“.
Le Etichette Nutrizionali per l’Accessibilità introducono una nuova sezione nelle pagine prodotto dell’App Store che metterà in evidenza le funzionalità di accessibilità all’interno di app e giochi. Queste etichette offrono agli utenti un nuovo modo per sapere se un’app sarà accessibile prima di scaricarla e offrono agli sviluppatori l’opportunità di informare e istruire meglio i propri utenti sulle funzionalità supportate dalle loro app. Tra queste, VoiceOver, Controllo Vocale, Testo Più Grande, Contrasto Sufficiente, Movimento Ridotto, Didascalie e altro ancora.
Le Etichette Nutrizionali per l’Accessibilità saranno disponibili sull’App Store in tutto il mondo e gli sviluppatori potranno accedere a ulteriori indicazioni sui criteri che le app devono soddisfare prima di visualizzare le informazioni sull’accessibilità sulle loro pagine prodotto. “Le etichette nutrizionali per l’accessibilità rappresentano un enorme passo avanti per l’accessibilità – ha affermato Eric Bridges, presidente e ceo dell’American Foundation for the Blind – I consumatori meritano di sapere fin dall’inizio se un prodotto o un servizio sarà accessibile, e Apple vanta una lunga tradizione nello sviluppo di strumenti e tecnologie che consentono agli sviluppatori di creare esperienze per tutti. Queste etichette offriranno alle persone con disabilità un nuovo modo per prendere decisioni più consapevoli e fare acquisti con maggiore sicurezza“.
- Sull’App Store, la pagina prodotto dell’app CVS Health mostra le etichette nutrizionali per l’accessibilità
- Sull’App Store, la pagina prodotto dell’app Apple Fitness mostra le etichette nutrizionali per l’accessibilità
Dal 2016, Magnifier su iPhone e iPad offre agli utenti non vedenti o ipovedenti strumenti per ingrandire, leggere testi e rilevare oggetti circostanti. Quest’anno, Magnifier arriva su Mac per rendere il mondo fisico più accessibile agli utenti ipovedenti. L’app Magnifier per Mac si connette alla fotocamera dell’utente per consentirgli di ingrandire l’ambiente circostante, come uno schermo o una lavagna. Magnifier funziona con Continuity Camera su iPhone e con le fotocamere USB collegate, e supporta la lettura di documenti tramite Desk View.Grazie alle finestre multiple per sessioni live, gli utenti possono svolgere più attività contemporaneamente visualizzando una presentazione tramite webcam e seguendo contemporaneamente un libro con la Visualizzazione Scrivania.
Grazie alle visualizzazioni personalizzate, gli utenti possono regolare luminosità, contrasto, filtri colore e persino la prospettiva per rendere più facile la visualizzazione di testo e immagini. Le visualizzazioni possono anche essere acquisite, raggruppate e salvate per essere aggiunte in seguito. Inoltre, Magnifier per Mac è integrato con un’altra nuova funzionalità di accessibilità, Accessibility Reader, che trasforma il testo del mondo fisico in un formato leggibile personalizzato.
Braille Access è un’esperienza completamente nuova che trasforma iPhone, iPad, Mac e Apple Vision Pro in un dispositivo per prendere appunti in braille completo e profondamente integrato nell’ecosistema Apple. Grazie all’app launcher integrato, gli utenti possono aprire facilmente qualsiasi app digitando tramite Braille Screen Input o tramite un dispositivo braille collegato. Con Braille Access, gli utenti possono prendere appunti rapidamente in formato braille ed eseguire calcoli utilizzando Nemeth Braille, un codice braille spesso utilizzato in classe per matematica e scienze. Gli utenti possono aprire file in formato Braille Ready Format (BRF) direttamente da Braille Access, sbloccando un’ampia gamma di libri e file precedentemente creati su un dispositivo per prendere appunti in braille. Inoltre, una versione integrata di Live Captions consente agli utenti di trascrivere le conversazioni in tempo reale direttamente sui display braille.
Lettore Accessibilità è una nuova modalità di lettura a livello di sistema progettata per rendere il testo più facile da leggere per gli utenti con un’ampia gamma di disabilità, come dislessia o ipovisione. Disponibile su iPhone, iPad, Mac e Apple Vision Pro, Lettore Accessibilità offre agli utenti nuovi modi per personalizzare il testo e concentrarsi sui contenuti che desiderano leggere, con ampie opzioni per font, colore e spaziatura, oltre al supporto per i contenuti vocali. Lettore Accessibilità può essere avviato da qualsiasi app ed è integrato nell’app Magnifier per iOS, iPadOS e macOS, così gli utenti possono interagire con il testo nel mondo reale, come nei libri o nei menu dei ristoranti.
Per gli utenti non udenti o con problemi di udito, i controlli di Ascolto dal vivo arrivano su Apple Watch con una nuova serie di funzioni, tra cui i Sottotitoli in tempo reale. Ascolto dal vivo trasforma l’iPhone in un microfono remoto per trasmettere contenuti in streaming direttamente agli AirPods, agli apparecchi acustici Made for iPhone o alle cuffie Beats. Quando una sessione è attiva su iPhone, gli utenti possono visualizzare i Sottotitoli in tempo reale di ciò che il loro iPhone sente su un Apple Watch abbinato mentre ascoltano l’audio. Apple Watch funge da telecomando per avviare o interrompere le sessioni di Ascolto dal vivo, oppure per tornare indietro nel tempo per registrare qualcosa che potrebbe essere sfuggito. Con Apple Watch, le sessioni di Ascolto dal vivo possono essere controllate da qualsiasi punto della stanza, quindi non c’è bisogno di alzarsi nel bel mezzo di una riunione o durante una lezione. Ascolto dal vivo può essere utilizzato insieme alle funzioni per la salute dell’udito disponibili sugli AirPods Pro 2, inclusa la prima funzione di livello clinico per apparecchi acustici nel suo genere.
Per gli utenti non vedenti o ipovedenti, visionOS amplierà le funzionalità di accessibilità visiva utilizzando il sistema di fotocamere avanzato di Apple Vision Pro. Grazie ai potenti aggiornamenti di Zoom, gli utenti possono ingrandire tutto ciò che vedono, incluso l’ambiente circostante, utilizzando la fotocamera principale. Per gli utenti di VoiceOver, il Riconoscimento Live di visionOS utilizza l’apprendimento automatico sul dispositivo per descrivere l’ambiente circostante, trovare oggetti, leggere documenti e altro ancora. Per gli sviluppatori di soluzioni per l’accessibilità, una nuova API consentirà alle app approvate di accedere alla fotocamera principale per fornire assistenza in tempo reale, interpersonale, per l’interpretazione visiva in app come Be My Eyes, offrendo agli utenti più modi per comprendere l’ambiente circostante a mani libere.