
Existe uma teoria antiga de que a Apple pegará um recurso que já existe no Android há vários anos, adicionará ao iPhone e dará a ele um novo nome. Em seguida, a Apple apresentará esse recurso com grande alarde como uma invenção revolucionária.
Foi exatamente isso que a Apple fez em seu discurso de abertura no evento anual WWDC 2025, quando revelou diversos novos recursos que serão incluídos no Apple Intelligence quando a atualização de software for lançada ainda este ano.
"Cópia descarada"
Uma série de novos recursos com inteligência artificial que aprimoram a experiência do usuário chegarão ao iPhone, iPad, Mac, Apple Watch e Vision Pro. O mais notável deles é a Tradução ao Vivo.
![]() |
Recurso de Tradução ao Vivo em chamadas do FaceTime. Foto: Apple. |
Projetada para eliminar as barreiras linguísticas na comunicação, a Tradução Instantânea integra-se a aplicativos de mensagens, FaceTime e telefone. Esse recurso funciona inteiramente no dispositivo para garantir a privacidade das conversas.
O conteúdo das mensagens pode ser traduzido automaticamente enquanto o usuário digita, e as respostas são traduzidas instantaneamente. No FaceTime, legendas ao vivo exibem a tradução enquanto o usuário ouve a voz da outra pessoa. As chamadas telefônicas também são traduzidas em tempo real.
Na verdade, essa é uma funcionalidade útil que a Samsung já havia introduzido em seu Galaxy AI. A marca sul-coreana inclusive chama essa funcionalidade por um nome semelhante: Live Translate.
Semelhante à Apple, o recurso Live Translate da Samsung traduz o conteúdo das chamadas para outros idiomas em tempo real. Graças a um modelo de idioma integrado e hardware otimizado, a gravação e o processamento do conteúdo ocorrem diretamente no dispositivo, garantindo a privacidade do usuário.
Além disso, o Google também apresentou a tradução ao vivo no I/O 2022 com as primeiras imagens do protótipo de óculos de realidade aumentada (RA) em desenvolvimento. No vídeo do Google, o dispositivo traduz idiomas e exibe os resultados ao vivo para o usuário.
"Você pode ver o que estou dizendo em tempo real, como legendas", compartilhou um representante do Google. No vídeo, os óculos de realidade aumentada do Google aparecem equipados com alto-falantes externos e com um design bastante semelhante ao de óculos de grau comuns .
Por ter chegado atrasada a esse recurso, a Apple precisará abordar as fragilidades inerentes à tradução automática. Especificamente, ao usar o Live Translate, os usuários terão dificuldade em determinar quando começar e parar de falar para que a IA traduza.
Segundo a repórter da Cnet, Lisa Eadicicco, que experimentou o serviço em um movimentado mercado parisiense, foi difícil para ela se concentrar na conversa porque precisava prestar atenção ao que era exibido na tela. No fim, a repórter comprou os itens da maneira tradicional: apontando, gesticulando e usando seu francês precário para descrever o que estava comprando.
Atender ou ouvir chamadas em nome do usuário.
Quando a Google lançou o Pixel 6 e o Pixel 6 Pro em 2021, anunciou um novo recurso muito útil para os usuários chamado "Aguarde para mim". Quando ativado, o Pixel AI ouve quando alguém atende a chamada e notifica o usuário com uma mensagem para que ele possa continuar a conversa.
Essa funcionalidade é bastante útil, pois permite que os usuários façam outras coisas confortavelmente, sem precisar ficar ouvindo para ver se a pessoa do outro lado da linha retornou à conversa. Assim que o usuário do outro lado retornar à conversa, o assistente virtual do Pixel o notificará com uma mensagem de áudio.
![]() |
Essa funcionalidade, que atende ou recebe chamadas em nome do usuário quando ele está ocupado, chama-se Assistente de Espera. Foto: Apple. |
Essa é uma ótima funcionalidade, e muitos usuários vinham pedindo para a Apple implementá-la no iPhone. Isso se tornou realidade com o anúncio da Apple de uma versão similar chamada Hold Assist.
Segundo a Apple, quando uma chamada é colocada em espera, os usuários podem deixar o iPhone em modo silencioso enquanto retornam ao trabalho. Quando um atendente estiver disponível, os usuários serão notificados para retomar a chamada.
Por fim, um recurso anteriormente disponível nos modelos Pixel, chamado Google Call Screen, usa inteligência artificial e pede ao chamador que revele seu nome e o motivo da ligação antes de conectar a chamada.
A Apple possui atualmente um recurso semelhante chamado Triagem de Chamadas, que ajuda os usuários a evitar distrações. Assim como o Triagem de Chamadas do Google, o sistema coleta informações sobre quem está ligando e fornece os detalhes necessários para ajudar os usuários a decidir se devem ou não atender a chamada.
O Assistente de Espera, a Tradução ao Vivo e o Filtro de Chamadas são recursos úteis no Android e há muito aguardados por muitos usuários de iPhone.
Segundo Alan Friedman, repórter do PhoneArena , esses três recursos de IA destacam as diferenças entre o Google e a Apple em relação aos seus sistemas operacionais.
Assim, o Android é adaptado para melhorar a experiência do usuário. A Apple espera antes de adicionar esses novos recursos úteis e, em seguida, apresenta um nome um tanto semelhante.
"Ainda assim, fico feliz em ver a Apple adicionando esses recursos ao iOS e estou ansioso para usá-los", comentou Friedman.
Fonte: https://znews.vn/apple-lai-hoc-android-post1559633.html








Comentário (0)