
O Google Maps integra o modelo Gemini 2.5
Após o lançamento do modelo Gemini 2.5, o Google continua a incorporar inteligência artificial em seu aplicativo mais conhecido, o Google Maps. Pela primeira vez, o mapa não só mostra direções, como também ouve, entende e responde em linguagem natural, um passo à frente que transforma a ferramenta de navegação em um verdadeiro assistente de comunicação.
À medida que o Google Maps se torna mais inteligente
De acordo com o blog oficial do Google DeepMind (novembro de 2025), o Gemini 2.5, um modelo de IA capaz de manipular navegadores e processar dados do mundo real, começou a ser testado em sua integração ao Google Maps. O objetivo é ajudar os usuários a "interagir naturalmente com o mapa", em vez de digitar manualmente cada local ou opções complexas.
O Gemini consegue entender pedidos como: "Encontre um restaurante próximo que fique aberto até tarde, mas evite obras na estrada" ou "Leve-me para casa, mas pare em uma farmácia no caminho". O sistema lê automaticamente os dados de tráfego em tempo real, determina a localização de quem fala e sugere a melhor rota.
"O Gemini foi treinado para entender não apenas palavras, mas também a intenção do usuário no espaço real", descreve o Google em uma publicação que apresenta o recurso "Pergunte ao Gemini no Maps".
Segundo pesquisa do Tuoi Tre Online , a primeira versão de teste está sendo implementada nos EUA, Canadá e Reino Unido, com planos de expansão para países asiáticos em 2026. Alguns usuários do Android já conseguiram ativar o comando de voz "Pergunte ao Gemini no Maps" para dar comandos ou conversar diretamente.
O diferencial do Gemini é que ele não apenas consulta mapas , mas também analisa imagens do Street View, avaliações da comunidade, hábitos de viagem e dados meteorológicos, permitindo que o mapa sugira frases naturais como "Vire à direita na cafeteria da Sra. Bay à frente" em vez de "Vire à direita depois de 200 metros".
Tecnologia "ouvir - compreender - responder" e progresso da personalização
Tecnicamente, o Gemini no Maps aplica um modelo multimodal, combinando processamento de linguagem, imagens e dados de localização para "compreender" o mundo da maneira como os humanos o percebem.
O sistema utiliza técnicas de ancoragem (associando a linguagem a objetos e locais específicos) para permitir que a IA compreenda frases naturais como "vá em direção ao pôr do sol" ou "passe o cruzamento com o sinal vermelho".
Comparado ao Google Assistente anterior, o Gemini é cerca de duas vezes mais rápido e consome menos dados na nuvem graças à inteligência artificial integrada nos dispositivos Pixel e em aparelhos Android de última geração. Isso não só permite respostas quase instantâneas, como também uma melhor proteção da privacidade, já que muitos comandos de voz são processados diretamente no dispositivo do usuário.
Especialistas em tecnologia dizem que a chegada do Gemini ao Maps pode transformar o mapa em uma verdadeira interface conversacional , onde os usuários podem fazer perguntas, ajustar rotas ou obter informações sobre locais sem usar as mãos.
Essa tendência também inaugura uma nova fase: a IA não apenas responde a perguntas, mas também começa a agir em nome dos humanos no mundo real.
O Google ainda não anunciou uma data de lançamento oficial, mas especialistas preveem que 2026 será o marco para a expansão da integração mais profunda do Gemini no ecossistema Android, abrangendo desde rotas e reservas de carros até o gerenciamento de viagens pessoais.
Fonte: https://tuoitre.vn/google-maps-nang-cap-biet-nghe-va-tro-chuyen-voi-nguoi-dung-20251107112218748.htm






Comentário (0)