Интерактивный интерфейс проекта Astra. Фото: Google . |
На мероприятии I/O 2025, которое состоялось ранним утром 21 мая (по вьетнамскому времени), Google анонсировала ряд новых функций Project Astra. Проект Astra, впервые запущенный в 2024 году, использует мультимодальную модель искусственного интеллекта для поиска и анализа изображений и визуальной информации в режиме реального времени. Это большая амбиция Google, цель которой — сделать ИИ более полезным в жизни.
После периода тестирования некоторые функции Project Astra, такие как голосовая обратная связь, память и базовые вычисления, появятся в приложениях Gemini и Google.
В ходе мероприятия компания Google продемонстрировала некоторые способы, которыми Astra может помочь в повседневной жизни. Помимо ответов на вопросы и использования камеры для запоминания места, где она оставила свои очки, Astra теперь может самостоятельно выполнять задания без просьб пользователя.
«Astra может выбирать, когда говорить, основываясь на том, что она видит. Она постоянно наблюдает и реагирует соответствующим образом», — сказал Грег Уэйн, исследователь из DeepMind.
По данным The Verge , эта функция может изменить способ работы искусственного интеллекта. Вместо того чтобы ждать, пока пользователь направит камеру и подаст команду на помощь, Astra может непрерывно контролировать, слушать и автоматически оказывать помощь при необходимости. В настоящее время Google сосредоточена на разработке Astra для смартфонов и умных очков.
Уэйн приводит несколько примеров того, как работает Astra. Во время выполнения домашнего задания инструмент может отслеживать ошибки и немедленно предупреждать об их обнаружении, вместо того чтобы ждать, пока пользователь закончит работу и запросит проверку.
Демис Хассабис, генеральный директор DeepMind, сказал, что обучение Astra самостоятельному выполнению задач было одним из самых сложных методов. Он называет это «чтением ситуации», поскольку ИИ должен определять, когда оказывать помощь, какое отношение занять, как оказывать помощь, а когда лучше промолчать. Это действия, которые люди выполняют довольно хорошо, но их трудно количественно оценить и изучить.
Следующее обновление Astra — сбор информации о пользователях в Интернете и продуктах Google. По данным The Verge , инструмент может знать расписание, чтобы уведомлять о том, когда следует выходить из дома, читать содержимое электронной почты и извлекать номера телефонов при регистрации в отелях...
![]() |
Функция выделения Project Astra, которая помогает сканировать объекты и сравнивать информацию, извлеченную в других приложениях. Фото: Google . |
Последняя «часть» пазла Astra — это возможность научиться пользоваться телефоном на базе Android. Во время демонстрации на мероприятии Бибо Сю, представитель отдела продукции DeepMind, направил камеру телефона на гарнитуру Sony и попросил Astra определить модель.
После того, как Астра ответила, что наушники могут быть Sony WH-1000XM4 или WH-1000XM3, Сю продолжил просить инструмент найти руководство пользователя, а затем объяснил, как подключиться к телефону. После указаний Астры Сю прервал ее и попросил чат-бота подключиться к нему. Astra тут же открыла настройки и выполнила операцию сама.
Процесс не был полностью гладким, поскольку Сю пришлось разрешить Астре следить за экраном телефона. В будущем Google планирует создать чат-ботов, способных автоматически контролировать экраны.
В другом видео Google человек просит Астру найти руководство по эксплуатации велосипеда Huffy, которое затем перенаправляет его на определенную страницу, содержащую инструкции по ремонту детали велосипеда. Astra может даже найти на YouTube видео о том, как выкрутить сорванный винт, а затем обратиться в ближайший магазин, чтобы найти запасную часть. Во время выступления все прошло гладко.
Хотя Astra пока не получила широкого распространения, Google заявила, что функция анализа изображений Gemini Live будет доступна всем пользователям iOS (ранее поддерживалась только Android).
По словам Сю, в будущем искусственный интеллект Google не будет просто действовать по команде, но Astra поможет «понять, что можно увидеть в данный момент, а что нельзя».
Источник: https://znews.vn/ai-cua-google-ngay-cang-thong-minh-post1554615.html
Комментарий (0)