
Er is een al lang bestaande theorie dat Apple een functie die al jaren op Android zit, zal nemen, deze zal toevoegen aan de iPhone, een nieuwe naam zal geven en het vervolgens zal aanprijzen als een geweldige innovatie.
Dat is precies wat Apple deed tijdens zijn WWDC 2025-keynote, toen het een aantal nieuwe functies onthulde die beschikbaar zullen zijn in Apple Intelligence wanneer de software-update later dit jaar wordt gelanceerd.
"Duidelijk gekopieerd"
Een reeks nieuwe AI-functies die de gebruikerservaring verbeteren, verschijnt op iPhone, iPad, Mac, Apple Watch en Vision Pro. De meest prominente is Live Translation.
![]() |
Live-vertalingfunctie in FaceTime-gesprekken. Foto: Apple. |
Live Translation is ontworpen om taalbarrières tijdens communicatie te doorbreken en integreert met berichtenapps, FaceTime en telefoons. De functie draait volledig op het apparaat zelf, zodat gesprekken privé blijven.
Berichten kunnen automatisch worden vertaald terwijl gebruikers typen, en ontvangen antwoorden worden direct vertaald. Tijdens FaceTime worden de vertalingen live weergegeven met ondertiteling terwijl gebruikers de stem van de ander horen. Telefoongesprekken worden ook in realtime vertaald.
Dit is een handige functie die Samsung introduceerde op zijn Galaxy AI. Het Koreaanse merk geeft deze functie zelfs een vergelijkbare naam: Live Translate.
Net als Apple vertaalt de Live Translate-functie van Samsung de inhoud van gesprekken in realtime naar een andere taal. Dankzij een ingebouwd taalmodel en geoptimaliseerde hardware vinden de opname en verwerking van de inhoud plaats op het apparaat zelf, om de privacy van de gebruiker te waarborgen.
Daarnaast introduceerde Google de live-vertaalfunctie ook op I/O 2022 met de eerste afbeelding van het augmented reality (AR)-brilmodel dat in ontwikkeling is. In de video van Google vertaalt het apparaat de taal en toont het deze direct voor de ogen van de gebruiker.
"Je kunt in realtime zien wat ik zeg, net als ondertiteling", vertelde een Google-medewerker. In de video zie je de AR-bril van Google, uitgerust met externe luidsprekers, die qua ontwerp sterk lijkt op een gewone modebril .
Als laatkomer zal Apple de inherente zwakheden van deze vertaalfunctie moeten aanpakken. Met name bij gebruik van Live Translate zullen gebruikers moeite hebben om te bepalen wanneer ze moeten beginnen en stoppen met spreken zodat AI kan vertalen.
Toen CNET- verslaggever Lisa Eadicicco het uitprobeerde op een drukke markt in Parijs, vond ze het moeilijk om zich op het gesprek te concentreren, omdat ze moest letten op wat er op het scherm gebeurde. Uiteindelijk kocht ze de items op de ouderwetse manier: wijzend, gebaren makend en in gebrekkig Frans om ze te beschrijven.
Beantwoord of luister naar oproepen namens de gebruiker
Toen Google in 2021 de Pixel 6 en Pixel 6 Pro introduceerde, kondigde het een zeer handige nieuwe functie aan voor gebruikers: Hold for Me. Wanneer geactiveerd, luistert Pixel AI wanneer iemand de telefoon opneemt en waarschuwt de gebruiker vervolgens met een prompt, zodat het gesprek kan worden voortgezet.
Deze functie is erg handig omdat gebruikers hiermee comfortabel andere dingen kunnen doen zonder te hoeven blijven luisteren om te horen of iemand aan de andere kant van de lijn het gesprek weer opneemt. Zodra de gebruiker aan de andere kant van de lijn het gesprek weer opneemt, waarschuwt de virtuele assistent op de Pixel met een geluid.
![]() |
De functie waarmee u namens de gebruiker oproepen kunt beantwoorden of beluisteren wanneer u in gesprek bent, heet Hold Assist. Foto: Apple. |
Dit is een geweldige functie en veel gebruikers hebben Apple opgeroepen om deze functie naar de iPhone te brengen. Dat is uitgekomen toen Apple een vergelijkbare versie aankondigde, genaamd Hold Assist.
Volgens Apple kunnen gebruikers hun iPhone in de wacht zetten en in stilte laten staan terwijl ze terugkeren naar hun werk. Zodra er een telefoniste beschikbaar is, krijgt de gebruiker een melding zodat hij/zij kan terugbellen.
Tot slot is er een functie die voorheen alleen beschikbaar was op Pixel-modellen: Google Call Screen. Deze functie maakt gebruik van kunstmatige intelligentie (AI) en vraagt de beller om zijn of haar naam en de reden voor het bellen te onthullen voordat de verbinding tot stand wordt gebracht.
Apple heeft nu een vergelijkbare functie, genaamd Call Screening, om gebruikers te helpen afleiding te voorkomen. Net als bij Google Call Screen verzamelt het systeem informatie over de beller en geeft het de benodigde details zodat gebruikers kunnen beslissen of ze de telefoon wel of niet opnemen.
Zowel Hold Assist, Live Translation als Call Screening zijn handige functies op Android waar veel iPhone-gebruikers al lang op wachten.
Volgens Alan Friedman, verslaggever van PhoneArena , laat dit trio van AI-functies het verschil zien tussen Google en Apple als het gaat om het besturingssysteem van de twee.
Android wordt dan ook aangepast om de gebruikerservaring te verbeteren. Apple wacht met het toevoegen van deze handige nieuwe functies en bedenkt dan een enigszins vergelijkbare naam.
"Toch ben ik blij dat Apple deze functies aan iOS toevoegt en ik kan niet wachten om ze te gebruiken", aldus Friedman.
Bron: https://znews.vn/apple-lai-hoc-android-post1559633.html












Reactie (0)