
Există o teorie de lungă durată conform căreia Apple va lua o funcție care există pe Android de ani de zile, o va adăuga pe iPhone, îi va da un nume nou și apoi o va promova ca pe o inovație extraordinară.
Exact asta a făcut Apple la discursul său principal de la WWDC 2025, când a dezvăluit o serie de funcții noi care vor fi disponibile în Apple Intelligence la lansarea actualizării de software la sfârșitul acestui an.
„Clar copiat”
O serie de noi funcții bazate pe inteligență artificială, care îmbunătățesc experiența utilizatorului, vor apărea pe iPhone, iPad, Mac, Apple Watch și Vision Pro. Cea mai importantă este traducerea live.
![]() |
Funcție de traducere live în apelurile FaceTime. Fotografie: Apple. |
Concepută pentru a elimina barierele lingvistice în timpul comunicării, Live Translation se integrează în aplicațiile de mesagerie, FaceTime și telefoane. Funcția rulează în întregime pe dispozitiv pentru a păstra confidențialitatea conversațiilor.
Mesajele pot fi traduse automat pe măsură ce utilizatorii tastează, iar răspunsurile primite sunt traduse instantaneu. Pe FaceTime, subtitrările live afișează traducerile în timp ce utilizatorii aud vocea interlocutorului. Apelurile telefonice sunt, de asemenea, traduse în timp real.
De fapt, aceasta este o funcție utilă introdusă de Samsung pe Galaxy AI. Marca coreeană chiar numește această funcție cu un nume similar, Live Translate.
La fel ca Apple, funcția Live Translate de la Samsung traduce conținutul apelurilor într-o altă limbă în timp real. Datorită unui model lingvistic încorporat și a hardware-ului optimizat, înregistrarea și procesarea conținutului au loc pe dispozitiv pentru a asigura confidențialitatea utilizatorului.
În plus, funcția de traducere live a fost introdusă și de Google la I/O 2022, odată cu prima imagine a modelului de ochelari de realitate augmentată (AR) aflat în curs de dezvoltare. În videoclipul Google, dispozitivul traduce limba și o afișează direct în fața ochilor utilizatorului.
„Puteți vedea ce spun în timp real, prin subtitrări”, a declarat un reprezentant Google. În videoclip, puteți vedea ochelarii AR de la Google echipați cu difuzoare externe, proiectați destul de similar cu ochelarii de modă obișnuiți.
Ca întârziat, Apple va trebui să abordeze punctele slabe inerente ale acestei funcții de traducere. Mai exact, atunci când utilizează Live Translate, utilizatorii vor avea dificultăți în a determina când să înceapă și să se oprească vorbirea pentru ca inteligența artificială să traducă.
Când reportera CNET Lisa Eadicicco a încercat acest lucru într-o piață aglomerată din Paris, i-a fost greu să se concentreze asupra conversației, deoarece trebuia să fie atentă la ce se vedea pe ecran. În cele din urmă, a ajuns să cumpere articolele în stilul tradițional: arătând cu degetul, gesticulând și folosind o franceză stricată pentru a le descrie.
Răspundeți sau ascultați apeluri în numele utilizatorului
Când Google a lansat Pixel 6 și Pixel 6 Pro în 2021, a anunțat o nouă funcție foarte utilă pentru utilizatori, numită „Hold for Me”. Când este activată, inteligența artificială a Pixel va asculta când cineva ridică telefonul și apoi va notifica utilizatorul cu o solicitare, astfel încât conversația să poată continua.
Această funcție este destul de utilă, deoarece permite utilizatorilor să facă confortabil alte lucruri fără a fi nevoiți să continue să asculte pentru a vedea dacă cineva de la celălalt capăt al firului a revenit la conversație. Odată ce utilizatorul de la celălalt capăt al firului revine la conversație, asistentul virtual de pe Pixel va notifica printr-un sunet.
![]() |
Funcția de a răspunde sau de a asculta apelurile în numele utilizatorului atunci când este ocupat se numește Hold Assist. Fotografie: Apple. |
Aceasta este o funcție excelentă și mulți utilizatori au cerut ca Apple să o aducă pe iPhone. Acest lucru s-a adeverit atunci când Apple a anunțat o versiune similară numită Hold Assist.
Conform Apple, atunci când sunt puși în așteptare, utilizatorii își pot lăsa iPhone-ul în așteptare în liniște în timp ce se întorc la muncă. Când un operator este disponibil, utilizatorul va fi notificat pentru a putea returna apelul.
În cele din urmă, o funcție care era disponibilă anterior pe modelele Pixel, numită Google Call Screen, folosește inteligența artificială și îi cere apelantului să își dezvăluie numele și motivul apelului înainte de a conecta apelul.
Apple are acum o funcție similară, numită Call Screening, pentru a ajuta utilizatorii să evite distragerile. Similar cu Google Call Screen, sistemul va colecta informații despre apelant și va oferi detaliile necesare pentru ca utilizatorii să decidă dacă ar trebui să răspundă sau nu la telefon.
Atât Hold Assist, cât și Live Translation, cât și Call Screening sunt funcții utile pe Android și au fost mult așteptate de mulți utilizatori de iPhone.
Potrivit reporterului PhoneArena, Alan Friedman, acest trio de funcții de inteligență artificială arată diferența dintre Google și Apple în ceea ce privește sistemul de operare.
În consecință, Android este modificat pentru a îmbunătăți experiența utilizatorului. Apple așteaptă înainte de a adăuga aceste noi funcții utile și apoi vine cu un nume ușor similar.
„Totuși, mă bucur să văd că Apple adaugă aceste funcții pe iOS și abia aștept să le folosesc”, a comentat Friedman.
Sursă: https://znews.vn/apple-lai-hoc-android-post1559633.html












Comentariu (0)