
Er bestaat al langer een theorie dat Apple een functie die al jaren op Android beschikbaar is, aan de iPhone zal toevoegen en deze een nieuwe naam zal geven. Vervolgens zal Apple deze functie met veel bombarie introduceren als een baanbrekende uitvinding.
Dat is precies wat Apple deed tijdens de keynote speech op het jaarlijkse WWDC 2025-evenement, toen het verschillende nieuwe functies onthulde die in Apple Intelligence zullen worden opgenomen wanneer de software-update later dit jaar wordt uitgebracht.
"Schandelijke kopiëring"
Een hele reeks nieuwe, door AI aangedreven functies die de gebruikerservaring verbeteren, komen naar iPhone, iPad, Mac, Apple Watch en Vision Pro. De meest opvallende is Live Translation.
![]() |
Livevertalingsfunctie in FaceTime-gesprekken. Foto: Apple. |
Live Translation is ontworpen om taalbarrières in de communicatie te doorbreken en integreert met berichten-, FaceTime- en telefoonapps. Deze functie draait volledig op het apparaat zelf om de privacy van gesprekken te waarborgen.
Berichtinhoud kan automatisch worden vertaald terwijl de gebruiker typt, en antwoorden worden direct vertaald. Op FaceTime worden live ondertitels weergegeven die de vertaling weergeven terwijl de gebruiker naar de stem van de andere persoon luistert. Telefoongesprekken worden ook in realtime vertaald.
Dit is in feite een handige functie die Samsung eerder al introduceerde op zijn Galaxy AI. Het Zuid-Koreaanse merk noemt deze functie zelfs met een vergelijkbare naam: Live Translate.
Net als Apple vertaalt Samsung met Live Translate de inhoud van telefoongesprekken in realtime naar andere talen. Dankzij een geïntegreerd taalmodel en geoptimaliseerde hardware vindt de opname en verwerking van de inhoud direct op het apparaat plaats, waardoor de privacy van de gebruiker gewaarborgd blijft.
Daarnaast presenteerde Google tijdens I/O 2022 ook live vertaling met de eerste beelden van het prototype van de augmented reality (AR)-bril die in ontwikkeling is. In de video van Google vertaalt het apparaat talen en toont de resultaten live aan de gebruiker.
"Je kunt in realtime zien wat ik zeg, net als bij ondertitels," aldus een vertegenwoordiger van Google. In de video is te zien dat de AR-bril van Google is uitgerust met externe luidsprekers en qua ontwerp veel lijkt op een gewone modebril .
Als laatkomer zal Apple de inherente zwakheden van deze vertaalfunctie moeten aanpakken. Met name bij het gebruik van Live Translate zullen gebruikers het lastig vinden om te bepalen wanneer ze moeten beginnen en stoppen met spreken, zodat de AI kan vertalen.
Volgens Cnet- verslaggever Lisa Eadicicco, die het uitprobeerde op een drukke markt in Parijs, vond ze het lastig om zich op het gesprek te concentreren omdat ze moest letten op wat er op het scherm werd getoond. Uiteindelijk kocht de verslaggever de spullen op de traditionele manier: wijzend, gebaren makend en met gebrekkig Frans beschrijvend wat ze kocht.
Oproepen namens de gebruiker beantwoorden of beluisteren.
Toen Google in 2021 de Pixel 6 en Pixel 6 Pro introduceerde, kondigden ze een zeer handige nieuwe functie aan voor gebruikers genaamd 'Hold for Me'. Wanneer deze functie is geactiveerd, luistert Pixel AI wanneer iemand de oproep beantwoordt en geeft de gebruiker vervolgens een melding zodat die het gesprek kan voortzetten.
Deze functie is erg handig, omdat gebruikers hierdoor comfortabel andere dingen kunnen doen zonder steeds te hoeven luisteren of de persoon aan de andere kant van de lijn weer aan het gesprek deelneemt. Zodra de gebruiker aan de andere kant weer aan het gesprek deelneemt, laat de virtuele assistent op de Pixel hem of haar dat weten met een audiobericht.
![]() |
Deze functie, die namens de gebruiker oproepen beantwoordt of aanneemt wanneer deze bezet is, heet Hold Assist. Foto: Apple. |
Dit is een fantastische functie waar veel gebruikers Apple al lang om vroegen voor de iPhone. Dat is nu werkelijkheid geworden met de aankondiging van Apple van een vergelijkbare functie genaamd Hold Assist.
Volgens Apple kunnen gebruikers hun iPhone in de stille stand laten staan terwijl ze aan het werk gaan, wanneer een gesprek in de wacht staat. Wanneer een medewerker van het callcenter klaar is, ontvangen gebruikers een melding om het gesprek te hervatten.
Tot slot is er een functie die voorheen beschikbaar was op Pixel-modellen, genaamd Google Call Screen. Deze functie maakt gebruik van AI en vraagt de beller om zijn of haar naam en de reden van het gesprek te onthullen voordat de verbinding tot stand wordt gebracht.
Apple heeft momenteel een vergelijkbare functie genaamd 'Oproepfiltering' die gebruikers helpt afleiding te voorkomen. Net als Google Call Screen verzamelt het systeem informatie over de beller en geeft het de nodige details om gebruikers te helpen beslissen of ze de oproep wel of niet moeten beantwoorden.
Wachtstandassistentie, live vertaling en oproepfiltering zijn allemaal handige functies op Android waar veel iPhone-gebruikers lang op hebben gewacht.
Volgens PhoneArena- verslaggever Alan Friedman benadrukken deze drie AI-functies de verschillen tussen Google en Apple als het gaat om hun besturingssystemen.
Daarom wordt Android aangepast om de gebruikerservaring te verbeteren. Apple wacht met het toevoegen van deze handige nieuwe functies en komt dan met een enigszins vergelijkbare naam.
"Desondanks ben ik blij dat Apple deze functies aan iOS toevoegt en ik kijk er echt naar uit om ze te gebruiken," aldus Friedman.
Bron: https://znews.vn/apple-lai-hoc-android-post1559633.html








Reactie (0)