
Există o teorie de lungă durată conform căreia Apple va lua o funcție existentă pe Android de câțiva ani, o va adăuga pe iPhone și îi va da un nume nou. Apoi, Apple va introduce această funcție cu mare fast, ca o invenție revoluționară.
Exact asta a făcut Apple în discursul său principal de la evenimentul anual WWDC 2025, când a dezvăluit mai multe funcții noi care vor fi incluse în Apple Intelligence atunci când actualizarea de software va fi lansată la sfârșitul acestui an.
„Copiere flagrantă”
O serie de noi funcții bazate pe inteligență artificială, care îmbunătățesc experiența utilizatorului, vor fi disponibile pe iPhone, iPad, Mac, Apple Watch și Vision Pro. Cea mai notabilă este traducerea live.
![]() |
Funcție de traducere live în apelurile FaceTime. Fotografie: Apple. |
Concepută pentru a elimina barierele lingvistice în comunicare, Live Translation se integrează în aplicațiile de mesagerie, FaceTime și telefon. Această funcție rulează în întregime pe dispozitiv pentru a asigura confidențialitatea conversațiilor.
Conținutul mesajelor poate fi tradus automat pe măsură ce utilizatorul tastează, iar răspunsurile sunt traduse instantaneu. Pe FaceTime, subtitrările live afișează traducerea în timp ce utilizatorul ascultă vocea celeilalte persoane. Apelurile telefonice sunt, de asemenea, traduse în timp real.
De fapt, aceasta este o funcție utilă introdusă anterior de Samsung pe Galaxy AI. Marca sud-coreeană chiar numește această funcție cu un nume similar: Live Translate.
Similar cu Apple, funcția Live Translate de la Samsung traduce conținutul apelurilor în alte limbi în timp real. Datorită unui model lingvistic integrat și a unui hardware optimizat, înregistrarea și procesarea conținutului au loc direct pe dispozitiv pentru a asigura confidențialitatea utilizatorului.
În plus, Google a prezentat și traducerea live la I/O 2022, prezentând primele imagini ale prototipului de ochelari de realitate augmentată (AR) aflat în curs de dezvoltare. În videoclipul Google, dispozitivul traduce limbi și afișează rezultatele live în fața utilizatorului.
„Puteți vedea ce spun în timp real, prin subtitrări”, a declarat un reprezentant Google. În videoclip, ochelarii AR de la Google pot fi văzuți echipați cu difuzoare externe și proiectați destul de similar cu ochelarii de modă obișnuiți.
Ca întârziat, Apple va trebui să abordeze punctele slabe inerente ale acestei funcții de traducere. Mai exact, atunci când utilizează Live Translate, utilizatorii vor întâmpina dificultăți în a determina când să înceapă și să se oprească vorbirea pentru ca inteligența artificială să traducă.
Potrivit reporterului Cnet Lisa Eadicicco, care a încercat metoda într-o piață aglomerată din Paris, i-a fost greu să se concentreze asupra conversației, deoarece trebuia să fie atentă la ceea ce era afișat pe ecran. În cele din urmă, reportera a cumpărat articolele în mod tradițional: arătând cu degetul, gesticulând și folosindu-și franceza stricată pentru a descrie ceea ce cumpăra.
Preia sau ascultă apeluri în numele utilizatorului.
Când Google a lansat Pixel 6 și Pixel 6 Pro în 2021, a anunțat o nouă funcție foarte utilă pentru utilizatori, numită Hold for Me. Când este activată, inteligența artificială a Pixel va asculta când cineva răspunde la apel și apoi va notifica utilizatorul cu o solicitare, astfel încât acesta să poată continua conversația.
Această funcție este destul de utilă, deoarece permite utilizatorilor să facă confortabil alte lucruri fără a fi nevoiți să asculte încontinuu pentru a vedea dacă persoana de la celălalt capăt al firului a revenit la conversație. Odată ce utilizatorul de la celălalt capăt al firului revine la conversație, asistentul virtual de pe Pixel îl va notifica printr-un mesaj audio.
![]() |
Această funcție, care răspunde la apeluri în numele utilizatorului atunci când acesta este ocupat, se numește Hold Assist. Fotografie: Apple. |
Aceasta este o funcție excelentă și una pe care mulți utilizatori au îndemnat Apple să o aducă pe iPhone. Aceasta a devenit realitate odată cu anunțul Apple privind o versiune similară numită Hold Assist.
Conform Apple, atunci când un apel este în așteptare, utilizatorii își pot lăsa iPhone-ul în standby silențios în timp ce se întorc la muncă. Când un agent din centrul de apeluri este gata, utilizatorii vor fi notificați să reia apelul.
În cele din urmă, o funcție disponibilă anterior pe modelele Pixel, numită Google Call Screen, folosește inteligența artificială și îi cere apelantului să își dezvăluie numele și motivul apelului înainte de a conecta apelul.
Apple are în prezent o funcție similară numită Call Screening, care ajută utilizatorii să evite distragerile. Similar cu Google Call Screen, sistemul colectează informații despre apelant și oferă detaliile necesare pentru a ajuta utilizatorii să decidă dacă să răspundă sau nu la apel.
Asistența în așteptare, traducerea live și filtrarea apelurilor sunt toate funcții utile pe Android și au fost așteptate de mult timp de mulți utilizatori de iPhone.
Potrivit reporterului PhoneArena, Alan Friedman, aceste trei caracteristici ale inteligenței artificiale evidențiază diferențele dintre Google și Apple în ceea ce privește sistemele lor de operare.
În consecință, Android este adaptat pentru a îmbunătăți experiența utilizatorului. Apple așteaptă înainte de a adăuga aceste noi funcții utile și apoi vine cu un nume oarecum similar.
„Cu toate acestea, mă bucur să văd că Apple adaugă aceste funcții la iOS și aștept cu nerăbdare să le folosesc”, a comentat Friedman.
Sursă: https://znews.vn/apple-lai-hoc-android-post1559633.html








Comentariu (0)