
Od dawna istnieje teoria, że Apple weźmie funkcję dostępną od lat w systemie Android, doda ją do iPhone'a, nada jej nową nazwę, a następnie będzie reklamować ją jako wspaniałą innowację.
Dokładnie to samo zrobiła firma Apple podczas swojego wystąpienia na konferencji WWDC 2025, kiedy to ujawniła szereg nowych funkcji, które będą dostępne w Apple Intelligence po premierze aktualizacji oprogramowania, która odbędzie się w dalszej części roku.
„Wyraźnie skopiowane”
Seria nowych funkcji opartych na sztucznej inteligencji, które usprawnią korzystanie z urządzenia, pojawi się na urządzeniach iPhone, iPad, Mac, Apple Watch i Vision Pro. Najbardziej znacząca z nich to Live Translation.
![]() |
Funkcja tłumaczenia na żywo w rozmowach FaceTime. Zdjęcie: Apple. |
Zaprojektowana, aby przełamywać bariery językowe w komunikacji, funkcja Live Translation integruje się z komunikatorami, FaceTime i telefonami. Funkcja działa w całości na urządzeniu, zapewniając prywatność rozmów.
Wiadomości mogą być automatycznie tłumaczone w miarę pisania przez użytkowników, a odpowiedzi na nie są tłumaczone natychmiast. W FaceTime, napisy na żywo wyświetlają tłumaczenia, gdy użytkownicy słyszą głos rozmówcy. Połączenia telefoniczne są również tłumaczone w czasie rzeczywistym.
W rzeczywistości jest to przydatna funkcja, którą Samsung wprowadził w swoim Galaxy AI. Koreańska marka nazywa ją nawet podobną nazwą – Live Translate.
Podobnie jak Apple, funkcja Live Translate firmy Samsung tłumaczy treść rozmowy na inny język w czasie rzeczywistym. Dzięki wbudowanemu modelowi językowemu i zoptymalizowanemu sprzętowi, nagrywanie i przetwarzanie treści odbywa się na urządzeniu, co zapewnia prywatność użytkownika.
Ponadto, funkcja tłumaczenia na żywo została również zaprezentowana przez Google na targach I/O 2022, gdzie zaprezentowano pierwszy obraz opracowywanego modelu okularów rozszerzonej rzeczywistości (AR). Na filmie Google widać, jak urządzenie tłumaczy język i wyświetla go bezpośrednio przed oczami użytkownika.
„Możesz zobaczyć, co mówię w czasie rzeczywistym, jak napisy” – powiedział przedstawiciel Google. Na filmie widać okulary Google AR wyposażone w zewnętrzne głośniki, zaprojektowane podobnie do zwykłych okularów .
Jako nowicjusz, Apple będzie musiało zająć się wadami tej funkcji tłumaczenia. W szczególności, korzystając z Live Translate, użytkownicy będą mieli trudności z określeniem, kiedy rozpocząć i zakończyć mówienie, aby sztuczna inteligencja mogła przetłumaczyć.
Kiedy reporterka CNET, Lisa Eadicicco, wypróbowała tę metodę na zatłoczonym targu w Paryżu, trudno jej było skupić się na rozmowie, ponieważ musiała koncentrować się na tym, co działo się na ekranie. Ostatecznie zdecydowała się kupić przedmioty w staromodny sposób: wskazując, gestykulując i opisując je łamaną francuszczyzną.
Odbieranie lub słuchanie połączeń w imieniu użytkownika
Kiedy Google wprowadziło na rynek Pixel 6 i Pixel 6 Pro w 2021 roku, ogłosiło bardzo przydatną nową funkcję dla użytkowników o nazwie Hold for Me. Po jej aktywacji Pixel AI będzie nasłuchiwać, gdy ktoś odbierze telefon, a następnie powiadomi użytkownika, aby umożliwić kontynuowanie rozmowy.
Ta funkcja jest bardzo przydatna, ponieważ pozwala użytkownikom wygodnie wykonywać inne czynności bez konieczności ciągłego nasłuchiwania, czy ktoś po drugiej stronie linii powrócił do rozmowy. Gdy użytkownik po drugiej stronie linii wróci do rozmowy, wirtualny asystent w Pixelu powiadomi o tym dźwiękiem.
![]() |
Funkcja umożliwiająca odbieranie lub odsłuchiwanie połączeń w imieniu użytkownika, gdy ten jest zajęty, nazywa się Hold Assist. Zdjęcie: Apple. |
To świetna funkcja i wielu użytkowników apelowało do Apple o wprowadzenie jej do iPhone'a. I rzeczywiście, Apple ogłosiło podobną wersję o nazwie Hold Assist.
Według Apple, po przełączeniu na tryb oczekiwania, użytkownicy mogą pozostawić iPhone'a w trybie oczekiwania w ciszy, wracając do pracy. Gdy operator będzie dostępny, użytkownik zostanie powiadomiony, aby mógł oddzwonić.
Wreszcie funkcja, która wcześniej była dostępna w modelach Pixel, o nazwie Google Call Screen, wykorzystuje sztuczną inteligencję i prosi osobę dzwoniącą o podanie imienia i powodu połączenia przed nawiązaniem połączenia.
Apple wprowadziło teraz podobną funkcję o nazwie Call Screening, która pomaga użytkownikom unikać rozpraszania uwagi. Podobnie jak Google Call Screen, system zbiera informacje o dzwoniącym i dostarcza niezbędne dane, aby użytkownicy mogli zdecydować, czy odebrać telefon, czy nie.
Obie funkcje, Hold Assist, Live Translation i Call Screening, są przydatne w systemie Android i od dawna oczekiwali na nie liczni użytkownicy iPhone'a.
Według Alana Friedmana, reportera serwisu PhoneArena , te trzy funkcje sztucznej inteligencji pokazują różnicę między Google i Apple, jeśli chodzi o stosowane przez te firmy systemy operacyjne.
W związku z tym Android został zmodyfikowany, aby poprawić komfort użytkowania. Apple czeka z dodaniem tych przydatnych nowych funkcji, a następnie wymyśla nieco podobną nazwę.
„Mimo to cieszę się, że Apple dodaje te funkcje do iOS i nie mogę się doczekać, aż będę mógł z nich korzystać” – skomentował Friedman.
Źródło: https://znews.vn/apple-lai-hoc-android-post1559633.html












Komentarz (0)