
Mapy Google integrują model Gemini 2.5
Po wprowadzeniu modelu Gemini 2.5, Google kontynuuje wprowadzanie sztucznej inteligencji do swojej najpopularniejszej aplikacji, Map Google. Po raz pierwszy mapa może nie tylko wskazywać drogę, ale także słuchać, rozumieć i odpowiadać w języku naturalnym, co stanowi krok naprzód, dzięki któremu narzędzie nawigacyjne staje się prawdziwym asystentem komunikacyjnym.
Ponieważ Mapy Google stają się coraz mądrzejsze
Według oficjalnego bloga Google DeepMind (listopad 2025 r.), Gemini 2.5, model sztucznej inteligencji zdolny do manipulowania przeglądarkami i przetwarzania danych ze świata rzeczywistego, rozpoczął testy integracji z Mapami Google. Celem jest umożliwienie użytkownikom „naturalnej interakcji z mapą”, zamiast ręcznego wpisywania każdej lokalizacji lub skomplikowanych opcji.
Gemini potrafi zrozumieć polecenia takie jak: „Znajdź pobliską restaurację otwartą do późna, ale omijając roboty drogowe” lub „Zabierz mnie do domu, ale po drodze wstąp do apteki”. System automatycznie odczyta dane o ruchu drogowym w czasie rzeczywistym, określi lokalizację mówiącego i zasugeruje najlepszą trasę.
„Gemini jest tak wyszkolony, aby rozumieć nie tylko słowa, ale także intencje użytkownika w przestrzeni rzeczywistej” – opisuje Google we wpisie wprowadzającym funkcję „Zapytaj Gemini w Mapach”.
Według badań Tuoi Tre Online , pierwsza wersja testowa jest wdrażana w USA, Kanadzie i Wielkiej Brytanii, a w 2026 roku planuje się jej rozszerzenie na kraje azjatyckie. Niektórzy użytkownicy Androida mogą aktywować komendę głosową „Zapytaj Gemini w Mapach”, aby wydawać polecenia lub rozmawiać bezpośrednio.
Co jest wyjątkowego, to fakt, że Gemini nie tylko przeszukuje mapy , ale także analizuje zdjęcia Street View, opinie społeczności, zwyczaje podróżnych i dane pogodowe. Dzięki temu mapa może wypowiadać naturalne zdania, takie jak „Skręć w prawo przy kawiarni Mrs. Bay” zamiast „Skręć w prawo po 200 metrach”.
Postęp technologii „Słuchaj – zrozum – reaguj” i personalizacji
Technicznie rzecz biorąc, Gemini in Maps stosuje model multimodalny – łącząc przetwarzanie języka, obrazy i dane o lokalizacji, aby „zrozumieć” świat tak, jak postrzegają go ludzie.
System wykorzystuje techniki uziemienia (kojarzenie języka z konkretnymi obiektami i lokalizacjami), aby umożliwić sztucznej inteligencji zrozumienie naturalnych zdań, takich jak „idź w stronę zachodu słońca” lub „miń skrzyżowanie ze znakiem czerwonym”.
W porównaniu z poprzednim Asystentem Google, Gemini jest około dwa razy szybszy i zużywa mniej danych w chmurze dzięki wbudowanej sztucznej inteligencji (AI) w telefonach Pixel i zaawansowanych urządzeniach z Androidem. Pozwala to nie tylko na niemal natychmiastowe reakcje, ale także na lepszą ochronę prywatności, ponieważ wiele poleceń głosowych jest przetwarzanych bezpośrednio na urządzeniu użytkownika.
Obserwatorzy technologii twierdzą, że wprowadzenie Gemini do Map może zmienić mapę w prawdziwy interfejs konwersacyjny , gdzie użytkownicy będą mogli zadawać pytania, modyfikować trasy lub dowiadywać się o lokalizacjach bez użycia rąk.
Trend ten otwiera nową fazę: sztuczna inteligencja nie tylko odpowiada na pytania, ale także zaczyna działać w imieniu ludzi w realnym świecie.
Google nie ogłosił jeszcze oficjalnej daty premiery, ale eksperci przewidują, że rok 2026 będzie kamieniem milowym w rozwoju głębszej integracji Gemini z ekosystemem Androida, od wyznaczania tras, przez rezerwację samochodu, po zarządzanie podróżami osobistymi.
Source: https://tuoitre.vn/google-maps-nang-cap-biet-nghe-va-tro-chuyen-voi-nguoi-dung-20251107112218748.htm






Komentarz (0)