Project Astraのインタラクティブインターフェース。写真: Google 。 |
5月21日(ベトナム時間)早朝に開催されたGoogle I/O 2025において、GoogleはProject Astraの新機能をいくつか発表しました。2024年に初公開されるProject Astraは、マルチモーダルAIモデルを用いて画像や視覚情報をリアルタイムで活用・分析します。これは、AIを生活の中でより便利にするというGoogleの壮大な野望です。
テスト期間の後、音声フィードバック、メモリ、基本的な計算などの Project Astra の一部の機能が Gemini および Google アプリに表示されるようになります。
イベント中、GoogleはAstraが日常生活を支援する方法をいくつか実演しました。質問に答えたり、カメラを使ってメガネの位置を記憶したりするだけでなく、Astraはユーザーが尋ねなくてもタスクをプロアクティブに完了できるようになりました。
「アストラは、見たものに基づいていつ話すかを選択できます。常に観察し、それに応じて反応します」と、ディープマインド社の研究者グレッグ・ウェイン氏は述べています。
The Vergeによると、この機能はAIの働き方を変える可能性があるとのことです。ユーザーがカメラを向けて助けを求めるのを待つ代わりに、Astraは継続的に監視し、聞き取り、必要に応じて自動的に支援します。現在、Googleはスマートフォンとスマートグラス向けのAstraの開発に注力しています。
ウェインはAstraの仕組みをいくつか例を挙げて説明します。宿題をしている間、このツールはユーザーが宿題を終えてチェックを依頼するまで待つことなく、ミスを検知し、すぐにユーザーに警告を発します。
DeepMindのCEO、デミス・ハサビス氏は、Astraにタスクを自律的に実行させる訓練は、最も難しい技術的スキルの一つだと述べた。彼はこれを「状況読解」と呼んだ。AIは、いつ支援すべきか、どのように支援すべきか、そしていつ黙っているべきかを判断する必要があったからだ。これらは人間がかなり得意とする動作だが、定量化や研究が難しい。
Astraの次なるアップグレードは、ウェブとGoogle製品上のユーザー情報を収集することです。The Vergeによると、このツールはスケジュールを把握して家を出る時間を通知したり、メールの内容を読み取ってホテルのチェックイン時に電話番号を抽出したりできるとのことです。
![]() |
Project Astraのハイライト機能は、オブジェクトをスキャンし、他のアプリケーションで抽出された情報と比較するのに役立ちます。写真: Google 。 |
Astraのパズルの最後のピースは、Androidスマートフォンの使い方を学習する能力です。イベントでデモンストレーションを行ったDeepMind製品部門の代表であるBibo Xiu氏は、スマートフォンのカメラをソニーのヘッドフォンに向け、Astraに機種を識別するよう指示しました。
AstraがヘッドホンはSony WH-1000XM4かWH-1000XM3の可能性があると答えた後、Xiuはツールにユーザーマニュアルを探すよう指示し続け、スマートフォンへの接続方法を説明しました。Astraが指示すると、Xiuは会話を中断し、チャットボットに接続を依頼しました。Astraはすぐに設定を開き、自分で接続しました。
Xiu氏はAstraにスマートフォンの画面監視を許可する必要があったため、このプロセスは完全にスムーズとは言えませんでした。将来的には、Googleはチャットボットが画面を自動的に監視できるようにすることを目指しています。
別のGoogle動画では、ある人がAstraにHuffyの自転車のマニュアルを探すように指示し、自転車の部品の修理手順が記載された特定のページに移動しています。Astraは、なめたネジの外し方に関するYouTube動画を検索し、最寄りの店舗に連絡して交換部品を探すことさえできます。デモでは、これらすべてがシームレスに実行されます。
Astraはまだ広くリリースされていないが、GoogleはGemini Liveの画像分析機能がすべてのiOSユーザーにリリースされると発表した(これまではAndroidのみサポートされていた)。
将来、Google の AI は単に命令に従って行動するだけでなく、Astra は「現時点で何が見えるか、何が見えないか」を理解するのに役立つようになると Xiu 氏は述べた。
出典: https://znews.vn/ai-cua-google-ngay-cang-thong-minh-post1554615.html
コメント (0)