
Google Maps, Gemini 2.5 모델 통합
제미니 2.5 모델을 출시한 이후, 구글은 가장 친숙한 애플리케이션인 구글 지도에 인공지능을 지속적으로 도입하고 있습니다. 처음으로 이 지도는 길 안내뿐만 아니라 자연어로 듣고 이해하고 응답할 수 있게 되었으며, 이는 내비게이션 도구를 진정한 소통 도구로 탈바꿈시키는 진일보입니다.
Google Maps가 더욱 스마트해짐에 따라
Google DeepMind 공식 블로그(2025년 11월)에 따르면, 브라우저를 조작하고 실제 데이터를 처리할 수 있는 AI 모델인 Gemini 2.5가 Google 지도와의 통합 테스트를 시작했습니다. 목표는 사용자가 각 위치나 복잡한 옵션을 직접 입력하는 대신 "자연스럽게 지도와 상호작용" 할 수 있도록 돕는 것입니다.
쌍둥이자리는 "늦게까지 영업하는 근처 식당을 찾아주세요. 하지만 도로 공사는 피하세요." 또는 "집에 데려다주고 가는 길에 약국에 들러주세요."와 같은 요청을 이해할 수 있습니다. 시스템은 실시간 교통 데이터를 자동으로 읽고 말하는 사람의 위치를 파악하여 최적의 경로를 제안합니다.
Google은 "지도에서 Gemini에게 질문하기" 기능을 소개하는 게시물에서 "Gemini는 단어뿐만 아니라 실제 공간에서의 사용자 의도도 이해하도록 훈련되었습니다."라고 설명합니다.
Tuoi Tre Online 의 조사에 따르면, 첫 번째 테스트 버전은 미국, 캐나다, 영국에서 배포되고 있으며, 2026년에는 아시아 국가로 확장할 계획입니다. 일부 안드로이드 사용자는 음성 명령 "지도에서 Gemini에게 물어보세요"를 활성화하여 명령을 내리거나 직접 채팅할 수 있었습니다.
특별한 점은 제미니가 지도를 검색할 뿐만 아니라 스트리트 뷰 이미지, 커뮤니티 리뷰, 여행 습관 및 날씨 데이터도 분석하여 "200m 후에 우회전하세요" 대신 "앞에 있는 베이 부인의 커피숍에서 우회전하세요"와 같이 자연스러운 문장을 지도에서 말할 수 있다는 것입니다.
"듣고-이해하고-대응하는" 기술과 개인화의 진보
기술적으로, 지도 속 제미니는 다중 모드 모델을 적용합니다. 즉, 언어 처리, 이미지, 위치 데이터를 결합하여 인간이 인식하는 방식으로 세상을 "이해"하는 것입니다.
이 시스템은 접지 기술(언어를 특정 사물과 위치와 연관시키는 기술)을 사용하여 AI가 "일몰을 향해 가세요" 또는 "빨간색 표지판이 있는 교차로를 지나세요"와 같은 자연스러운 문장을 이해할 수 있도록 합니다.
이전 Google Assistant에 비해 Gemini는 약 두 배 더 빠르고 Pixel 및 고급 Android 기기의 온디바이스 AI 덕분에 클라우드 데이터 사용량도 줄었습니다. 이를 통해 거의 즉각적인 응답이 가능할 뿐만 아니라 많은 음성 명령이 사용자 기기에서 바로 처리되므로 개인 정보 보호도 강화됩니다.
기술 전문가들은 지도에 제미니가 도입되면 지도가 진정한 대화형 인터페이스 로 바뀌어 사용자가 손을 쓰지 않고도 질문을 하거나, 경로를 조정하거나, 위치에 대한 정보를 얻을 수 있을 것이라고 말합니다.
이러한 추세는 새로운 국면을 열어줍니다. AI는 질문에 답할 뿐만 아니라 현실 세계에서 인간을 대신하여 행동하기 시작합니다.
구글은 아직 공식 출시일을 발표하지 않았지만, 전문가들은 2026년이 제미니가 길찾기, 차량 예약부터 개인 여행 관리까지 안드로이드 생태계에 더욱 깊이 통합되는 이정표가 될 것으로 예측하고 있습니다.
출처: https://tuoitre.vn/google-maps-nang-cap-biet-nghe-va-tro-chuyen-voi-nguoi-dung-20251107112218748.htm






댓글 (0)