
Det finnes en langvarig teori om at Apple vil ta en funksjon som har vært på Android i årevis, legge den til på iPhone, gi den et nytt navn, og deretter fremheve den som en flott innovasjon.
Det var akkurat det Apple gjorde på hovedtalen på WWDC 2025, da de avslørte en rekke nye funksjoner som vil være tilgjengelige i Apple Intelligence når programvareoppdateringen lanseres senere i år.
"Tydelig kopiert"
En rekke nye AI-drevne funksjoner som forbedrer brukeropplevelsen vil dukke opp på iPhone, iPad, Mac, Apple Watch og Vision Pro. Den mest fremtredende er Live Translation.
![]() |
Funksjon for direkteoversettelse i FaceTime-samtaler. Foto: Apple. |
Live Translation er utviklet for å bryte ned språkbarrierer i kommunikasjon, og integreres i meldingsapper, FaceTime og telefoner. Funksjonen kjører utelukkende på enheten for å holde samtaler private.
Meldinger kan oversettes automatisk mens brukere skriver, og svar mottatt oversettes umiddelbart. På FaceTime viser direktetekster oversettelser mens brukerne hører den andre partens stemme. Telefonsamtaler oversettes også i sanntid.
Dette er faktisk en nyttig funksjon som Samsung introduserte på sin Galaxy AI. Det koreanske merket kaller til og med denne funksjonen et lignende navn, Live Translate.
I likhet med Apple oversetter Samsungs Live Translate-funksjon samtaleinnhold til et annet språk i sanntid. Takket være en innebygd språkmodell og optimalisert maskinvare skjer opptaket og innholdsbehandlingen på enheten for å sikre brukerens personvern.
I tillegg ble funksjonen for direkte oversettelse introdusert av Google på I/O 2022 med det første bildet av AR-brillemodellen som er under utvikling. I Googles video oversetter enheten språket og viser det rett foran brukerens øyne.
«Du kan se hva jeg sier i sanntid, som undertekster», delte en Google-representant. I videoen kan du se Googles AR-briller utstyrt med eksterne høyttalere, designet ganske likt vanlige motebriller .
Som en etternøler må Apple ta tak i de iboende svakhetene ved denne oversettelsesfunksjonen. Spesielt når brukere bruker Live Translate, vil de ha problemer med å bestemme når de skal begynne og slutte å snakke for at AI skal oversette.
Da CNET- reporter Lisa Eadicicco prøvde det ut på et travelt marked i Paris, syntes hun det var vanskelig å fokusere på samtalen fordi hun måtte følge med på hva som var på skjermen. Til slutt endte hun opp med å kjøpe varene på gammeldags måten: hun peket, gestikulerte og brukte gebrokken fransk for å beskrive dem.
Svare på eller lytte til anrop på vegne av brukeren
Da Google introduserte Pixel 6 og Pixel 6 Pro i 2021, annonserte de en veldig nyttig ny funksjon for brukere kalt Hold for Me. Når den er aktivert, vil Pixel AI lytte når noen tar opp telefonen og deretter varsle brukeren med en melding slik at samtalen kan fortsette.
Denne funksjonen er ganske nyttig, ettersom den lar brukerne komfortabelt gjøre andre ting uten å måtte fortsette å lytte for å se om noen i den andre enden av linjen har returnert til samtalen. Når brukeren i den andre enden av linjen returnerer til samtalen, vil den virtuelle assistenten på Pixel varsle med en lyd.
![]() |
Funksjonen for å svare på eller lytte til anrop på vegne av brukeren når det er opptatt kalles Hold Assist. Foto: Apple. |
Dette er en flott funksjon, og mange brukere har etterlyst at Apple skal bringe den til iPhone. Dette har gått i oppfyllelse da Apple annonserte en lignende versjon kalt Hold Assist.
Ifølge Apple kan brukere la iPhonen stå på vent i stillhet mens de går tilbake til jobb. Når en operatør er tilgjengelig, vil brukeren bli varslet slik at de kan ringe tilbake.
Til slutt bruker en funksjon som tidligere var tilgjengelig på Pixel-modeller, kalt Google Call Screen, kunstig intelligens og ber den som ringer om å oppgi navn og årsak til oppringingen før den kobler til samtalen.
Apple har nå en lignende funksjon som de kaller Call Screen for å hjelpe brukere med å unngå distraksjoner. I likhet med Google Call Screen vil systemet samle inn informasjon om den som ringer og gi brukerne nødvendige detaljer slik at de kan bestemme om de skal svare på telefonen eller ikke.
Både Hold Assist, Live Translation og Call Screening er nyttige funksjoner på Android og har vært lenge etterlengtet av mange iPhone-brukere.
Ifølge PhoneArena- reporter Alan Friedman viser denne trioen av AI-funksjoner forskjellen mellom Google og Apple når det gjelder operativsystemet mellom de to.
Følgelig er Android finjustert for å forbedre brukeropplevelsen. Apple venter med å legge til disse nyttige nye funksjonene, og kommer deretter opp med et litt lignende navn.
«Likevel er jeg glad for å se at Apple legger til disse funksjonene i iOS, og jeg gleder meg til å bruke dem», kommenterte Friedman.
Kilde: https://znews.vn/apple-lai-hoc-android-post1559633.html












Kommentar (0)