ケイシー・ハレル氏(45歳)がこの実験の参加者です - 写真:カリフォルニア大学デービス校
ネイチャー誌が6月11日報じたところによると、筋萎縮性側索硬化症(ALS)という重度の言語障害を引き起こす病気を患うケーシー・ハレルさん(45)は、脳に埋め込まれたAI装置のおかげで「本物の声」で話したり歌ったりできるようになったという。
脳コンピューターインターフェース(BCI)と呼ばれるこの装置は、ユーザーが話そうとするときの脳の電気活動を人工知能を使って解読する。
特に注目すべきは、人が言おうとした言葉を再現するだけでなく、イントネーション、ピッチ、ニュアンスといった感情や意味をより明確に表現する上で重要な要素である自然な音声特性を伝えることができるシステムが初めて実現したことだ。
このBCIシステムは、神経信号をほぼ瞬時に音声や歌声に変換できます。具体的には、脳が信号を送ってからわずか10ミリ秒で人工音声を生成することができ、音声生成に数秒かかっていた従来のデバイスよりもはるかに高速です。
ケイシー氏の運動皮質に埋め込まれたこの装置は、256個の微小電極で構成されています。科学者たちはAIアルゴリズムを訓練し、10ミリ秒ごとに脳信号を解読して、単語全体や音素だけでなく、発話のあらゆる試みを記録しました。
結果は、ユーザーが「あー」「おお」「うーん」などの感嘆音を発声したり、トレーニング データにはない単語を発声したりできることを示しました。
チームはまた、ケイシー氏の古い録音を使い、個人用の合成音声を作成した。ケイシー氏は、まるで自分の「本当の声」を再び聞いているかのような感動を覚えたと語った。
このデバイスは、ユーザーが質問文を話しているのか、それとも断定文を話しているのかを判別し、合成音声のトーンを自動調整します。また、同じ文中の異なる単語の強調位置も認識できるため、メッセージの意図を正確に再現する上で重要です。
カリフォルニア大学デービス校の研究チームの一員であるマイトリー・ワイラグカー博士は、これは言語障害を持つ人々が固定された語彙の限界を克服し、より自然にコミュニケーションをとることを支援する上での一歩であると述べた。
他の科学者たちも、これは BCI 分野における「変革的」な進歩であり、非常に応用性の高い言語支援ツールへの道を開き、話す能力を失った人々にとって日常的なコミュニケーションツールとなる可能性があると考えています。
出典: https://tuoitre.vn/dot-pha-thiet-bi-cay-ghep-nao-ai-giup-nguoi-cam-noi-va-hat-20250614092557976.htm
コメント (0)