
Det finnes en langvarig teori om at Apple vil ta en funksjon som har eksistert på Android i flere år, legge den til på iPhone og gi den et nytt navn. Deretter vil Apple introdusere denne funksjonen med stor fanfare som en banebrytende oppfinnelse.
Det er akkurat det Apple gjorde i hovedtalen sin på det årlige WWDC 2025-arrangementet, da de avslørte flere nye funksjoner som vil bli inkludert i Apple Intelligence når programvareoppdateringen lanseres senere i år.
"Åpenbar kopiering"
En rekke nye AI-drevne funksjoner som forbedrer brukeropplevelsen kommer til iPhone, iPad, Mac, Apple Watch og Vision Pro. Den mest bemerkelsesverdige er Live Translation.
![]() |
Funksjon for direkteoversettelse i FaceTime-samtaler. Foto: Apple. |
Live Translation er utviklet for å bryte ned språkbarrierer i kommunikasjon, og integreres i meldings-, FaceTime- og telefonapper. Denne funksjonen kjører utelukkende på enheten for å sikre personvern i samtaler.
Meldingsinnhold kan oversettes automatisk mens brukeren skriver, og svar oversettes umiddelbart. På FaceTime viser direktetekster oversettelsen mens brukeren lytter til den andre personens stemme. Telefonsamtaler oversettes også i sanntid.
Dette er faktisk en nyttig funksjon som Samsung tidligere introduserte på sin Galaxy AI. Det sørkoreanske merket kaller til og med denne funksjonen et lignende navn: Live Translate.
I likhet med Apple oversetter Samsungs Live Translate-funksjon samtaleinnhold til andre språk i sanntid. Takket være en integrert språkmodell og optimalisert maskinvare skjer opptak og behandling av innhold direkte på enheten for å sikre brukerens personvern.
I tillegg viste Google frem live-oversettelse på I/O 2022 med de første bildene av prototypen for AR-briller (augmented reality) som er under utvikling. I Googles video oversetter enheten språk og viser resultatene live foran brukeren.
«Du kan se hva jeg sier i sanntid, som undertekster», delte en Google-representant. I videoen kan man se Googles AR-briller utstyrt med eksterne høyttalere og designet ganske likt vanlige motebriller .
Som en etternøler må Apple ta tak i de iboende svakhetene ved denne oversettelsesfunksjonen. Spesielt når brukere bruker Live Translate, vil det være vanskelig å bestemme når de skal begynne og slutte å snakke for at AI-en skal oversette.
Ifølge Cnet- reporter Lisa Eadicicco, som prøvde det ut på et travelt marked i Paris, var det vanskelig for henne å fokusere på samtalen fordi hun måtte følge med på hva som ble vist på skjermen. Til syvende og sist kjøpte reporteren varene på den tradisjonelle måten: hun peket, gestikulerte og brukte sin gebrokkene fransk for å beskrive hva hun kjøpte.
Svare på eller høre anrop på vegne av brukeren.
Da Google introduserte Pixel 6 og Pixel 6 Pro i 2021, annonserte de en veldig nyttig ny funksjon for brukere kalt Hold for Me. Når den er aktivert, vil Pixel AI lytte når noen svarer på anropet og deretter varsle brukeren med en melding slik at de kan fortsette samtalen.
Denne funksjonen er ganske nyttig, ettersom den lar brukerne komfortabelt gjøre andre ting uten å måtte fortsette å lytte for å se om personen i den andre enden av linjen har kommet tilbake til samtalen. Når brukeren i den andre enden kommer tilbake til samtalen, vil den virtuelle assistenten på Pixel-enheten varsle dem med en lydmelding.
![]() |
Denne funksjonen, som svarer på eller tar imot anrop på vegne av brukeren når de er opptatt, kalles Hold Assist. Foto: Apple. |
Dette er en flott funksjon, og en som mange brukere har oppfordret Apple til å bringe til iPhone. Det har blitt en realitet med Apples kunngjøring av en lignende versjon kalt Hold Assist.
Ifølge Apple kan brukere la iPhonen stå i stille standby mens de går tilbake til jobb når en samtale er på vent. Når en kundesentermedarbeider er klar, vil brukerne bli varslet om å gjenoppta samtalen.
Til slutt bruker en funksjon som tidligere var tilgjengelig på Pixel-modeller, kalt Google Call Screen, kunstig intelligens og ber den som ringer om å oppgi navn og årsak til oppringingen før den kobler til samtalen.
Apple har for tiden en lignende funksjon kalt samtalescreening som hjelper brukere med å unngå distraksjoner. I likhet med Google Call Screen samler systemet inn informasjon om den som ringer og gir de nødvendige detaljene for å hjelpe brukerne med å avgjøre om de skal svare på anropet eller ikke.
Hold Assist, Live Translation og Call Screening er alle nyttige funksjoner på Android og har vært lenge etterlengtet av mange iPhone-brukere.
Ifølge PhoneArena- reporter Alan Friedman fremhever disse tre AI-funksjonene forskjellene mellom Google og Apple når det gjelder operativsystemene deres.
Følgelig er Android tilpasset for å forbedre brukeropplevelsen. Apple venter med å legge til disse nyttige nye funksjonene, og kommer deretter opp med et noe lignende navn.
«Likevel er jeg glad for å se at Apple legger til disse funksjonene i iOS, og jeg gleder meg veldig til å bruke dem», kommenterte Friedman.
Kilde: https://znews.vn/apple-lai-hoc-android-post1559633.html








Kommentar (0)