Apple bestemte seg for en liten stund siden for en stor overraskelse. Med introduksjonen av noen nyheter for iOS 18 bestemte seg for å ikke vente til begynnelsen av juni, men avslørte dem nå gjennom en pressemelding utstedt for å feire World Accessibility Day. Det «feires» hvert år den tredje torsdagen i mai, som i år allerede faller på i morgen. Som du kanskje har gjettet, er de avslørte nyhetene knyttet til tilgjengelighet, som er laget på iPhone spesielt for personer med ulike former for funksjonshemminger. Noen funksjoner kan imidlertid brukes de facto av hvem som helst, og dette vil selvsagt også gjelde nyheter som kommer for proff. iOS 18 og andre versjoner av operativsystemet - desto mer når disse i noen tilfeller er vanskelige å tro. Så hva gjør du med verden? Apple forberedt?
Øyesporing kommer til iPad og iPhone
Eye Tracking, ved hjelp av kunstig intelligens, gir brukerne muligheten til å navigere på iPads og iPhones med kun øynene. Designet for brukere med fysiske funksjonshemninger, bruker Eye Tracking et frontvendt kamera som du setter opp og kalibrerer i løpet av sekunder, og med maskinlæring på enheten lagres alle data som brukes til å sette opp og kontrollere funksjonen sikkert på enheten og ikke delt med selskapet Apple.
Øyesporing fungerer i alle iPadOS- og iOS-apper og krever ingen ekstra maskinvare eller tilbehør. Ved å bruke Eye Tracking kan brukere navigere i app-elementer og bruke Dwell Control til å aktivere individuelle elementer og få tilgang til andre funksjoner som fysiske knapper, sveiper og andre bevegelser med kun øynene deres.
Musikkhaptikk gjør sanger tilgjengelige
Music Haptics er en ny måte for døve eller tunghørte brukere å oppleve musikk på iPhone. Når denne tilgjengelighetsfunksjonen er slått på, spiller Taptic Engine på iPhone av trykk, teksturer og milde vibrasjoner til lyden av musikk. Music Haptics fungerer i millioner av sanger fra katalogen Apple Musikk og vil være tilgjengelig som et API for utviklere for å gjøre musikk tilgjengelig i appene deres.
Nye funksjoner for et bredt spekter av tale
Med talesnarveier kan iPhone- og iPad-brukere tilordne tilpassede setninger som Siri forstår for å utløse snarveier og fullføre komplekse oppgaver. En annen ny funksjon, Lytt etter atypisk tale, gir brukerne muligheten til å forbedre talegjenkjenningen for et bredere spekter av tale. Listen for Atypical Speech bruker maskinlæring i enheten for å gjenkjenne brukerens talemønstre. Disse funksjonene er designet for brukere med ervervede eller progressive tilstander som påvirker tale, for eksempel cerebral parese, amyotrofisk lateral sklerose (ALS) eller hjerneslag, og gir et nytt nivå av tilpasning og kontroll, og bygger på funksjoner introdusert i iOS 17 for ikke-talende brukere eller står i fare for å miste evnen til å snakke.
Kjøretøys bevegelsessignaler kan bidra til å redusere reisesyke
Vehicle Motion Cues er en ny opplevelse for iPhone og iPad som kan bidra til å redusere reisesyke for passasjerer i kjøretøy i bevegelse. Forskning viser at reisesyke ofte er forårsaket av en sensorisk konflikt mellom det en person ser og det de føler, noe som kan hindre noen brukere fra å bruke iPhone eller iPad komfortabelt mens de kjører i et kjøretøy i bevegelse. Ved å bruke Vehicle Motion Cues representerer animerte prikker på kantene av skjermen endringer i kjøretøyets bevegelser for å redusere sansekonflikter uten å distrahere fra hovedinnholdet. Ved å bruke sensorene innebygd i iPhone og iPad, oppdager Vehicle Motion Cues når brukeren er i et kjøretøy i bevegelse og reagerer deretter. Funksjonen kan settes til å vises automatisk på iPhone, eller den kan slås på eller av i kontrollsenteret.
CarPlay får stemmekontroll og andre tilgjengelighetsoppdateringer
Tilgjengelighetsfunksjoner som stemmekontroll, fargefiltre og lydgjenkjenning kommer til CarPlay. Med stemmestyring kan brukere navigere i CarPlay og kontrollere apper med kun stemmen. Med lydgjenkjenning kan døve eller hørselshemmede sjåfører eller passasjerer slå på varsler for bilhorn og sirener. For brukere som er fargeblinde, gjør fargefiltre det enklere å visuelt kontrollere CarPlay-grensesnittet og andre visuelle tilgjengelighetsfunksjoner, inkludert fet tekst og stor tekst.
Tilgjengelighetsfunksjoner i visionOS
Blant tilgjengelighetsfunksjonene som kommer til visionOS i år vil være system-liveteksting for å hjelpe alle – inkludert døve eller hørselshemmede brukere – med å følge taledialog i live-samtaler og lydopptak fra apper. Med live-teksting for FaceTime på visionOS kan flere brukere enkelt nyte den unike opplevelsen av å koble til og samarbeide med Persona. Apple Vision Pro legger til muligheten til å flytte undertekster ved hjelp av vinduslinjen under Apple Oppslukende video samt støtte for andre Made for iPhone-høreapparater og cochlea-høreprosessorer. Oppdateringer for visuell tilgjengelighet vil inkludere tillegg av Reduser gjennomsiktighet, Smart Invert og Dim blinkende lys for brukere med svaksynte eller de som ønsker å unngå sterkt lys og hyppig blinking.
Nok en oppdatering
- For blinde eller svaksynte brukere vil VoiceOver inkludere nye stemmer, en fleksibel stemmerotor, tilpassede volumkontroller og muligheten til å tilpasse VoiceOver-snarveier på Mac.
- Forstørrelsesglasset vil tilby en ny lesemodus og muligheten til å enkelt starte deteksjonsmodus med handlingsknappen.
- Brukere av blindeskrift får en ny måte å starte og forbli i punktskrift for raskere tekstkontroll og redigering, japansk tilgjengelighet for punktskrift, støtte for flerlinjers punktskrift med punktblokk, og muligheten til å velge forskjellige inn- og utdatatabeller.
- For brukere med nedsatt syn viser Hover Typing større tekst i brukerens foretrukne skrifttype og farge når de skriver i et tekstfelt.
- Personlig stemme på mandarin-kinesisk vil være tilgjengelig for brukere som står i fare for å miste evnen til å snakke. Brukere som har problemer med å snakke eller lese hele setninger vil kunne lage en personlig stemme ved å bruke forkortede fraser.
- For brukere som ikke snakker, vil Live Speech inkludere kategorier og gjeldende kompatibilitet med Live Captions.
- Virtual Trackpad for AssistiveTouch vil tillate brukere med fysiske funksjonshemninger å kontrollere enheten ved å bruke et lite område av skjermen som en styreflate som kan endres størrelse.
- Bryterkontroller vil inkludere muligheten til å bruke kameraer i iPhones og iPads for å gjenkjenne fingertrykkbevegelser som brytere.
- Stemmekontroll vil tilby støtte for tilpassede ordbøker og komplekse ord.
Jeg var mest fornøyd med at "Personlig stemme på mandarin kinesisk vil være tilgjengelig for brukere som står i fare for å miste evnen til å snakke."
Dette er flott for beliggenheten vår……jeg forstår ikke om språkene våre ikke fungerer med Ai.
Mener du mandarin som snakkes av 1,2 milliarder mennesker? 😂 Og 5 millioner Slovakia? Du forstår ikke rådet, gjør du?
Uventet? Han gjorde ikke dette Apple selv for et år siden?
Jeg har selv et problem, når jeg sitter som passasjer og skal lese noe, får jeg reisesyke etter første minutt. Jeg er nysgjerrig på hvordan det vil fungere i praksis
Å, så samler allerede inn data fra funksjonshemmede og lagrer det hvem som vet hvor. Etter (avslørt i) iOS 17.5. må våkne om natten med mareritt i eple
Dette er VIRKELIG utrolig!! En komplett game changer. Jeg kommer til å overta dette og ikke sove på en uke.
Vel, vi har en klient på jobb som vil ha øyesporingsfunksjonen, jeg installerte betaen for ham der iOS 18 public beta 3 og plutselig fant vi ut at på hans iPhone med 2020, selvfølgelig, kan denne funksjonen ikke slås på. Ikke sikker på hvilke modeller dette vil være tilgjengelig fra? Tusen takk.