ChatGPTが聞くだけでなく観察もできる場合
TechRadarによると、OpenAIは「ライブカメラ」と呼ばれる新機能を開発しており、ChatGPTの拡張音声モードに統合される予定とのことです。この機能により、AI(人工知能)は音声チャットだけでなく、画像認識や応答も可能になります。
「ライブカメラ」は2024年5月に初めて導入され、OpenAIはAIが画像を認識し、詳細なフィードバックを提供する様子を実演しました。実演中、AIは犬を正しく識別し、品種、特徴、名前に関する情報を提供しました。しかし、OpenAIはそれ以降、この機能に関する詳細な情報を発表していません。
ChatGPTの強化された音声機能は、近い将来、ビデオ通話を介してユーザーと対話できるようになります。
最近、ChatGPTのベータ版(v1.2024.317)のソースコードに「ライブカメラ」という名前の参照が見つかりました。これは、この機能が広く展開される前にベータテストとしてまもなくリリースされる可能性があることを示唆しています。
ChatGPTの強化された音声モードはアルファ版でテストされており、ユーザーから好意的なフィードバックを得ています。あるテスターは、この機能を「とても賢い友人」とのFaceTime通話に例え、質問にリアルタイムで答えるのに役立ったと述べています。
画像認識機能とビデオ通話機能の統合により、ChatGPTは通常のチャットボットの役割を超越することが期待されます。これは、視覚障害者にとって便利なツールとなるだけでなく、視覚認識が必要な状況への対応を支援することも可能になります。
OpenAIは「ライブカメラ」機能の正式なリリース日や詳細をまだ発表していないが、ベータ版のソースコードから得られた新たなデータによると、この機能は開発中であり、まもなくユーザーが利用できるようになる可能性があることが示唆されている。
[広告2]
出典: https://thanhnien.vn/chatgpt-chuan-bi-ra-mat-tinh-nang-goi-video-cung-ai-185241119232904592.htm
コメント (0)