in

Uno sguardo per usare lo smartphone e le altre nuove funzionalità di Apple per l’accessibilità


Sta diventando una piccola, piacevole abitudine. Ogni anno, alla vigilia della Giornata mondiale dell’Accessibilità, Apple annuncia una serie di novità per i suoi prodotti. Non novità a pagamento o prodotti commerciali, ma soluzioni che permettono di rendere un po’ più facile l’utilizzo dei dispositivi dell’azienda alle persone che hanno difficoltà a utilizzarli normalmente. E che danno il via in maniera non ufficiale alla stagione delle novità software, che vengono annunciate durante la WWDC di giugno.

Apple porta avanti da decenni il tema dell’accessibilità. L’azienda nel tempo ha ideato soluzioni che hanno reso più semplice la vita a molte persone che volessero utilizzare i suoi computer, software e servizi, sin dal primo Macintosh di quarant’anni fa. Quest’anno, l’azienda ha annunciato un pacchetto di novità consistente, che sarà disponibile più avanti: forse già nelle attuali versioni dei suoi sistemi operativi o forse in quelle che verranno annunciate a giugno durante la WWDC e poi rilasciate tradizionalmente a settembre.

Si tratta di una serie di funzioni che lasciano tra le altre cose intuire quali saranno le potenzialità dei nuovi sistemi operativi di Apple perché sfruttano i processori di iPhone, iPad e Mac, con l’intelligenza artificiale, l’apprendimento automatico e le novità di interfaccia. Coinvolgendo per la prima volta anche visionOS, il sistema operativo del visore Vision Pro.

Good tech

Come funziona Twin, l’esoscheletro di IIT per far camminare chi non camminava più


Le novità per la vista e il movimento

La prima e forse più sorprendente è la funzione di Eye Tracking, che consentirà di controllare iPad o iPhone con gli occhi. Questo sistema di tracciamento del movimento degli occhi verrà effettuato trasversalmente sull’interfaccia del sistema operativo ma anche di tutte le applicazioni e quindi non richiede alcuna modifica da parte dei programmatori delle singole app.

Inoltre, Apple ha preparato anche Vocal Shortcuts, che permetterà agli utenti di far eseguire alcune operazioni ai dispositivi tramite comandi vocali specifici. Apple, utilizzando il machine learning, ha anche lavorato molto sulla capacità dei suoi device di riconoscere tipi diversi di pronuncia dei comandi, anche molto distorta o gergale.

Inoltre, con Vehicle Motion Cues, Apple offre la prima soluzione, trasversale a tutte le app di iPhone e iPad, per cercare di limitare il mal d’auto per chi sta usando gli apparecchi su un veicolo in movimento. Sempre sui veicoli, la nuova generazione di CarPlay permette di portare controllo della voce, filtro dei colori e riconoscimento dei suoni per i passeggeri. Inoltre, assieme all’aiuto per le persone daltoniche che spesso hanno difficoltà a riconoscere segnali e differenze di segni sulle mappe, arrivano anche miglioramenti all’interfaccia, riprogettata per evidenziare meglio le scritte.

Scenari

Salvate il soldato Siri con l’IA: Apple al lavoro per potenziare l’assistente digitale



Sottotitoli nella realtà aumentata

Il Vision Pro acquista anch’esso funzioni di accessibilità che arricchiscono notevolmente il funzionamento, per esempio per le persone che non sentono o hanno difficoltà a sentire: una funzione di sottotitolazione automatica permetterà di aggiungere un fumetto accanto alle persone che stanno parlando con la trascrizione di quello che dicono. Questo funzionerà sia nelle comunicazioni dal vivo sia nelle videoconferenze o con i video registrati. Inoltre, sarà possibile modificare la luminosità ambientale, le luci lampeggianti e i colori per rendere l’ambiente più confortevole agli utenti.

Ancora: la funzione Music Haptics farà vibrare il telefono a ritmo di musica, consentendo alle persone che non sentono di percepire in qualche modo la melodia. La funzionalità sarà disponibile per Musica, il servizio di streaming musicale a pagamento di Apple, e come risorsa che potrà essere integrata dagli sviluppatori anche nelle app di terze parti come Spotify e Amazon Music Prime.

Infine, sono migliorate ancora le altre funzionalità di riconoscimento delle immagini, di ingrandimento, della compatibilità con hardware per la scrittura e la lettura in Braille, funzioni di creazione delle Personal Voice sintetizzate a partire da brevi campioni vocali di un utente (adesso anche in cinese mandarino), un nuovo sistema di riconoscimento della tastiera virtuale, di trackpad virtuale su iPad, di controllo vocale e di switch tra videocamere di iPhone e iPad.

Apple organizza anche una serie di incontri in alcuni suoi negozi per spiegare il funzionamento di queste tecnologie, oltre a presentare alcune delle sue attività come la campagna Assume that I can di Coordown che combatte i pregiudizi sulla sindrome di Down e che fa parte della serie Riprogettiamo il mondo dedicata all’accessibilità. Lo spot viene presentato a Milano, nell’Apple Store di Piazza Liberty, giovedì 16 maggio alle 18.30.



Leggi di più su repubblica.it

Written by bourbiza mohamed

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Le strappano la collana d’oro mentre rincasa con la spesa, vittima in pieno giorno una 70enne

L’inchiesta della Dda: indagato anche il rettore dell’università di Sassari, candidato sindaco per il centrodestra