Galaxy Unpacked イベント (米国) において、Google は、マルチタスクと自然なインタラクションを重視した人工知能プラットフォームの強力なアップグレード バージョンである Gemini Advance (Gemini 2.0) を正式に発表しました。 Gemini Advance の改良点の多くは、Samsung 製品ライン向けに最適化するように設計されています。 ギャラクシーS25 リリースされたばかりで、Galaxy S24やPixel 9などのデバイスをサポートしています。
このバージョンの最も顕著な機能は、チェーンアクションを実行する機能であり、これによりユーザーは複数の連続したタスクを簡単に処理できるようになります。たとえば、Gemini Advance を使用して Google マップでレストランを検索し、その後 Google メッセージ経由でメッセージを作成して友人を招待するといった操作をすべて 1 つのコマンドで実行できます。
YouTubeのミュージックビデオをGemini Liveで分析し、ベトナム語で迅速な結果と正確な情報をテストします
現在、マップやメッセージなどの主要な Google アプリには拡張機能が用意されており、リマインダー、カレンダー、メモ、時計などの Samsung 専用アプリも利用可能で、上記の機能を最大限に活用できます。 ギャラクシーS25。
Gemini Advance の拡張機能である Gemini Live も、マルチモーダル処理機能により大幅にアップグレードされています。ユーザーは、AI による分析と支援のために画像、ファイル、または YouTubeビデオをアップロードできるようになりました。たとえば、Gemini Live にプロジェクトの写真を評価してもらい、改善の提案をしてもらうことができます。ただし、これらの機能は Galaxy S24、Galaxy S25、Pixel 9 でのみ動作し、Google が現時点で最高級のデバイスを優先していることを強調しています。
Googleは、Gemini Advanceとともに、AIインタラクションの一歩前進となるProject Astraも発表し、ユーザーは携帯電話のカメラを使って周囲の状況を質問できるようになる。たとえば、カメラを物体に向けると、Gemini が関連情報を提供したり、写真を撮るだけでバスのスケジュールを尋ねたりすることができます。
内蔵の AI プラットフォームは、実際の写真を分析し、冷蔵庫にある食材からレシピなどの提案を行うことができます。
プロジェクト・アストラは、まず ギャラクシーS25 および Pixel デバイス。さらに、Google は、携帯電話の画面を必要とせずに環境と対話できるようにするハンズフリー AI グラスをテストしています。
アクション シーケンスやマルチモーダル処理などの新機能を備えた Gemini Advance は、特に Samsung Galaxy S25 において、モバイル デバイスへの AI の適用における一歩前進を示しています。
[広告2]
出典: https://thanhnien.vn/google-ra-mat-gemini-advance-toi-uu-hoa-cho-samsung-galaxy-s25-185250123021204879.htm
コメント (0)