Vietnam.vn - Nền tảng quảng bá Việt Nam

Czy Apple znów „uczy się” od Androida?

Nowe funkcje, takie jak Hold Assist, Live Translation i Call Screening, które firma Apple zaprezentowała na corocznej konferencji WWDC 2025, pojawiły się już na urządzeniach z systemem Android.

ZNewsZNews10/06/2025

Od dawna krąży teoria, że ​​Apple weźmie funkcję, która od kilku lat jest dostępna w Androidzie, doda ją do iPhone'a i nada jej nową nazwę. Następnie Apple wprowadzi tę funkcję z wielką pompą jako przełomowy wynalazek.

Dokładnie to samo zrobiła firma Apple w swoim przemówieniu otwierającym doroczną konferencję WWDC 2025, kiedy to ujawniła kilka nowych funkcji, które zostaną uwzględnione w Apple Intelligence po premierze aktualizacji oprogramowania, która odbędzie się w dalszej części roku.

„Jawne kopiowanie”

Na iPhone'a, iPada, Maca, Apple Watch i Vision Pro pojawi się szereg nowych funkcji opartych na sztucznej inteligencji, które poprawią komfort użytkowania. Najbardziej godnym uwagi jest Live Translation.

Apple anh 1

Funkcja tłumaczenia na żywo w rozmowach FaceTime. Zdjęcie: Apple.

Zaprojektowana z myślą o przełamywaniu barier językowych w komunikacji, funkcja Live Translation integruje się z wiadomościami, FaceTime i aplikacjami telefonicznymi. Funkcja ta działa w całości na urządzeniu, zapewniając prywatność rozmów.

Treść wiadomości może być automatycznie tłumaczona w miarę wpisywania tekstu przez użytkownika, a odpowiedzi są tłumaczone natychmiast. W FaceTime napisy na żywo wyświetlają tłumaczenie, podczas gdy użytkownik słucha głosu rozmówcy. Połączenia telefoniczne są również tłumaczone w czasie rzeczywistym.

W rzeczywistości jest to przydatna funkcja, którą Samsung wprowadził już wcześniej w swoim Galaxy AI. Południowokoreańska marka nazywa ją nawet podobną nazwą: Live Translate.

Podobnie jak Apple, funkcja Live Translate firmy Samsung tłumaczy treść rozmowy na inne języki w czasie rzeczywistym. Dzięki zintegrowanemu modelowi językowemu i zoptymalizowanemu sprzętowi, nagrywanie i przetwarzanie treści odbywa się bezpośrednio na urządzeniu, co zapewnia prywatność użytkownika.

Ponadto, Google zaprezentowało tłumaczenie na żywo na targach I/O 2022, prezentując pierwsze zdjęcia prototypu okularów rozszerzonej rzeczywistości (AR) w fazie rozwoju. Na filmie Google urządzenie tłumaczy języki i wyświetla wyniki na żywo przed użytkownikiem.

„Możesz zobaczyć, co mówię w czasie rzeczywistym, jak napisy” – powiedział przedstawiciel Google. Na filmie widać, jak okulary AR firmy Google są wyposażone w zewnętrzne głośniki i zaprojektowane podobnie do zwykłych okularów .

Jako nowicjusz, Apple będzie musiało zająć się wadami tej funkcji tłumaczenia. W szczególności, korzystając z funkcji Live Translate, użytkownicy będą mieli trudności z określeniem, kiedy rozpocząć i zakończyć mówienie, aby sztuczna inteligencja mogła tłumaczyć.

Według reporterki Cnet, Lisy Eadicicco, która wypróbowała tę metodę na tętniącym życiem paryskim targu, trudno jej było skupić się na rozmowie, ponieważ musiała zwracać uwagę na to, co wyświetlało się na ekranie. Ostatecznie reporterka kupowała towary w tradycyjny sposób: wskazując, gestykulując i używając łamanego francuskiego, aby opisać, co kupuje.

Odbieranie i odbieranie połączeń w imieniu użytkownika.

Kiedy Google wprowadziło na rynek Pixel 6 i Pixel 6 Pro w 2021 roku, zapowiedziało bardzo przydatną nową funkcję dla użytkowników o nazwie Hold for Me. Po jej aktywacji Pixel AI będzie nasłuchiwać, gdy ktoś odbierze połączenie, a następnie powiadomi użytkownika, aby mógł kontynuować rozmowę.

Ta funkcja jest bardzo przydatna, ponieważ pozwala użytkownikom wygodnie wykonywać inne czynności bez konieczności ciągłego nasłuchiwania, czy osoba po drugiej stronie linii wróciła do rozmowy. Gdy użytkownik po drugiej stronie linii wróci do rozmowy, wirtualny asystent na telefonie Pixel powiadomi go o tym za pomocą wiadomości audio.

Apple anh 2

Funkcja ta, która pozwala odbierać połączenia w imieniu użytkownika, gdy ten jest zajęty, nazywa się Hold Assist. Zdjęcie: Apple.

To świetna funkcja, o której wprowadzenie do iPhone'a wielu użytkowników namawiało Apple. Stało się to rzeczywistością wraz z ogłoszeniem przez Apple podobnej wersji o nazwie Hold Assist.

Według Apple, gdy połączenie jest zawieszone, użytkownicy mogą pozostawić iPhone'a w trybie czuwania i wrócić do pracy. Gdy konsultant call center będzie gotowy, użytkownicy otrzymają powiadomienie o możliwości wznowienia połączenia.

Wreszcie funkcja dostępna wcześniej w modelach Pixel, zwana Google Call Screen, wykorzystuje sztuczną inteligencję i prosi dzwoniącego o podanie imienia i powodu połączenia przed nawiązaniem połączenia.

Apple oferuje obecnie podobną funkcję o nazwie Call Screening, która pomaga użytkownikom unikać rozpraszania uwagi. Podobnie jak Google Call Screen, system zbiera informacje o dzwoniącym i dostarcza niezbędne dane, które pomagają użytkownikom podjąć decyzję o odebraniu połączenia.

Hold Assist, Live Translation i Call Screening to przydatne funkcje w systemie Android, na które od dawna czekali liczni użytkownicy iPhone’a.

Według Alana Friedmana, reportera serwisu PhoneArena , te trzy funkcje sztucznej inteligencji podkreślają różnice między systemami operacyjnymi Google i Apple.

W związku z tym Android został dostosowany do poprawy komfortu użytkowania. Apple czeka z dodaniem tych przydatnych nowych funkcji, a następnie proponuje podobną nazwę.

„Mimo wszystko cieszę się, że Apple dodaje te funkcje do systemu iOS i nie mogę się doczekać, aż zacznę z nich korzystać” – skomentował Friedman.

Źródło: https://znews.vn/apple-lai-hoc-android-post1559633.html


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Wdzięczny

Wdzięczny

Szczęście w dniu pokoju

Szczęście w dniu pokoju

5 ton

5 ton