Googleは先週、BardからGeminiへとブランド名を変更し、ローンチして以来、最新のAI技術を着実にアップデートし、統合してきました。AIの基盤となる大規模言語モデル(LLM)の方向性を守りながら、BardとGeminiを統合しました。その後、Googleはサブスクリプションプランと、スマートフォン上でバーチャルアシスタントとして機能するAndroid専用のモバイル版をリリースしました。
この「検索の巨人」は最新の動きとして、Geminiのさらなるアップグレードを続けており、今回はユーザーのスマートヘッドフォンの操作方法と体験を変える可能性があります。9to5Googleによると、Android向けの最新Geminiテストバージョン(バージョン15.6)のコードを深く掘り下げたプログラマーが、重要な変更の証拠を発見したとのことです。
スマートヘッドホンのAIはユーザーの音楽体験を向上させる
現在、スマートヘッドホン(例:Pixel Buds)でバーチャルアシスタントを呼び出すと、スマートフォンのデフォルトアシスタントとしてGeminiが指定されているにもかかわらず、システムはGoogleアシスタントを選択します。しかし、今後の公式アップデートでGeminiがAIとして選択されるようになると、この動作は変更される可能性があります。
Googleはこの件に関して公式発表や情報開示を行っていないものの、「Geminiモバイルアプリがヘッドフォンからアクセスできるように機能を拡張している」とされるプログラミングコード内の発見は、テクノロジー業界の注目を集めています。あとは、同社がスマートヘッドフォンのデフォルトのバーチャルアシスタントとしてGeminiを統合する計画を発表するのを待つだけです。
ヘッドフォンに Gemini が登場したことで、リスニング体験が新たなレベルに引き上げられ、曲の変更、巻き戻し、情報要約の要求、さらには複雑な数式を解くなどのコントロール操作をすべてハンズフリーでどこでも実行できるようになりました。
この変更の利点を結論付けるにはまだ時期尚早ですが、ヘッドフォンが所有者の習慣や再生中の曲に応じてサウンドイコライザーを自動的に制御できるようになり、AIの世界で新しい音楽体験が実現する可能性を排除するものではありません...
[広告2]
ソースリンク
コメント (0)