
Det finns en långvarig teori om att Apple kommer att ta en funktion som har funnits på Android i åratal, lägga till den på iPhone, ge den ett nytt namn och sedan marknadsföra den som en fantastisk innovation.
Det är precis vad Apple gjorde vid sitt WWDC 2025-anförande, då de avslöjade ett antal nya funktioner som kommer att finnas tillgängliga i Apple Intelligence när programuppdateringen lanseras senare i år.
"Tydligt kopierad"
En serie nya AI-drivna funktioner som förbättrar användarupplevelsen kommer att dyka upp på iPhone, iPad, Mac, Apple Watch och Vision Pro. Den mest framträdande är Live Translation.
![]() |
Funktion för liveöversättning i FaceTime-samtal. Foto: Apple. |
Live Translation är utformad för att bryta ner språkbarriärer vid kommunikation och integreras i meddelandeappar, FaceTime och telefoner. Funktionen körs helt på enheten för att hålla konversationer privata.
Meddelanden kan översättas automatiskt medan användare skriver och mottagna svar översätts direkt. På FaceTime visar livetexter översättningar medan användarna hör den andra partens röst. Telefonsamtal översätts också i realtid.
Faktum är att detta är en användbar funktion som Samsung introducerade i sin Galaxy AI. Det koreanska märket kallar till och med funktionen för ett liknande namn, Live Translate.
Precis som Apple översätter Samsungs Live Translate-funktion samtalsinnehåll till ett annat språk i realtid. Tack vare en inbyggd språkmodell och optimerad hårdvara sker inspelningen och innehållsbearbetningen på enheten för att garantera användarnas integritet.
Dessutom introducerades funktionen för liveöversättning av Google på I/O 2022 med den första bilden av den modell med AR-glasögon (augmented reality) som är under utveckling. I Googles video översätter enheten språket och visar det direkt framför användarens ögon.
”Du kan se vad jag säger i realtid, som undertexter”, delade en Google-representant. I videon kan du se Googles AR-glasögon utrustade med externa högtalare, designade ganska likt vanliga modeglasögon .
Som en efterslänt kommer Apple att behöva åtgärda de inneboende svagheterna i denna översättningsfunktion. Specifikt när användare använder Live Translate kommer de att ha svårt att avgöra när de ska börja och sluta tala för att AI ska kunna översätta.
När CNET- reportern Lisa Eadicicco provade den på en livlig marknad i Paris hade hon svårt att fokusera på samtalet eftersom hon var tvungen att vara uppmärksam på vad som visades på skärmen. Till slut köpte hon varorna på det gammaldags sättet: pekade, gestikulerade och använde bruten franska för att beskriva dem.
Svara på eller lyssna på samtal för användarens räkning
När Google introducerade Pixel 6 och Pixel 6 Pro år 2021 tillkännagav de en mycket användbar ny funktion för användare som heter Hold for Me. När den aktiveras lyssnar Pixel AI när någon svarar i telefonen och meddelar sedan användaren med en uppmaning så att samtalet kan fortsätta.
Den här funktionen är ganska användbar eftersom den låter användare bekvämt göra andra saker utan att behöva fortsätta lyssna för att se om någon i andra änden av linjen har återvänt till samtalet. När användaren i andra änden av linjen återgår till samtalet meddelar den virtuella assistenten på Pixel med ett ljud.
![]() |
Funktionen för att svara på eller lyssna på samtal åt användaren när det är upptaget kallas Hold Assist. Foto: Apple. |
Det här är en fantastisk funktion och många användare har efterfrågat att Apple ska lansera den även på iPhone. Det har blivit verklighet när Apple tillkännagav en liknande version som heter Hold Assist.
Enligt Apple kan användare, när de sätts i vänteläge, låta sin iPhone vara i vänteläge medan de återgår till sitt arbete. När en telefonist är tillgänglig meddelas användaren så att de kan ringa tillbaka.
Slutligen använder en funktion som tidigare var tillgänglig på Pixel-modeller, kallad Google Call Screen, AI och ber den som ringer att avslöja sitt namn och anledningen till att de ringer innan samtalet kopplas.
Apple har nu en liknande funktion som de kallar samtalsscreening för att hjälpa användare att undvika distraktioner. I likhet med Google Call Screen samlar systemet in information om den som ringer och ger användarna nödvändig information för att avgöra om de ska svara i telefonen eller inte.
Både Hold Assist, Live Translation och Call Screening är användbara funktioner på Android och har länge efterlängtats av många iPhone-användare.
Enligt PhoneArena -reportern Alan Friedman visar denna trio av AI-funktioner skillnaden mellan Google och Apple när det gäller operativsystemet mellan de två.
Följaktligen justeras Android för att förbättra användarupplevelsen. Apple väntar innan de lägger till dessa användbara nya funktioner och kommer sedan med ett något liknande namn.
"Ändå är jag glad att se att Apple lägger till dessa funktioner i iOS och kan inte vänta med att använda dem", kommenterade Friedman.
Källa: https://znews.vn/apple-lai-hoc-android-post1559633.html












Kommentar (0)