4月、弁護士のヴァン・スライク氏(米国サウスカロライナ州チャールストン在住)は、心理学者との予約を忘れてしまったため、ChatGPTを使って個人的な問題を打ち明けてみることにしました。
OpenAIのチャットボットとのバーチャル会話の中で、ヴァン・スライク氏は機械と個人的な話を共有できたのは心強いと語った。彼はトランスジェンダーとしての恐怖やプレッシャー、そして彼が住む国におけるトランスジェンダーの権利の認知度の低さについて語った。また、彼の性自認に対する家族からの支援不足をめぐる葛藤や、近々予定されている実家への引っ越しについても語った。
心理カウンセリングにAIを活用する
その後数日間、ヴァン・スライクは自分の気持ちを吐き出すために、決まった時間にテキストメッセージを送信し始めました。次第に、ChatGPTからの返信がより親密で感情的なものだと感じるようになりました。
彼は自分の個人的な感情を他人に話すとき、たとえ心理カウンセラーに話している時でさえ、相手に負担をかけているように感じることがよくあります。しかし、AIチャットボットを使うと、そのようなプレッシャーを感じません。
「ChatGPTは、生身の人間から聞きたい質問に答えてくれます。時には、そうした励ましこそが必要なのです」とヴァン・スライク氏は語った。
AIはまだ心理学者に取って代わることはできない。(写真:NurPhoto)
ブルームバーグによると、2023年は生成型AIチャットボットの黎明期に過ぎません。ChatGPTやBingなどの生成言語モデルは世界中で何百万人もの人々に利用されていますが、その将来は未だ不透明です。現在、ユーザーはAIチャットボットをインターネット検索、宿題のカンニング、ソフトウェアプログラミング、レストランの予約などに利用しています。
心理カウンセリングにチャットボットを活用するというアイデアは新しいものではありません。Elizaは、1960年代にマサチューセッツ工科大学(MIT)のジョセフ・ワイゼンバウム教授によって開発された、世界初のチャットボットの一つです。このチャットボットは、心理カウンセラーと同等の機能を備えて開発されました。
その後、WoebotやWysaなど、人間のメンタルヘルスに焦点を当てたチャットボットが数多く登場しました。人間の心理学者とは異なり、これらのチャットボットは休みなく働き、費用はほとんど、あるいは全くかかりません。
AIはまだ医師の代わりにはなれない
しかし、便利さには多くの欠点も伴います。ChatGPT、Bard、Bingといった人気のチャットボットは、大規模言語モデル(LLM)に基づいて動作し、膨大なデータセットを用いて非常に説得力のある応答や情報を生成することができます。
AIチャットボットは、人間の心理学者のように心理カウンセリングや倫理的・法的アドバイスを提供するために設計されていません。現状では、AIチャットボットはユーザーが共有するストーリーを体系化することができず、実際の心理学者には劣っています。
「深刻なメンタルヘルスの問題を抱えている場合、AIチャットボットはメンタルヘルスの専門家の代わりにはなりません」と、カンザス大学のスティーブン・イラルディ教授は述べています。イラルディ教授は、こうしたシステムを利用するリスクが大きすぎると述べ、ChatGPTを「安っぽい冗談」と呼びました。人々は、個人的な問題について相談できる信頼できる人を見つけるべきです。
この問題を受けて、ChatGPTの親会社であるOpenAIの代表者は、深刻な健康状態の診断や治療にAI言語モデルを使用しないようユーザーにアドバイスした。
OpenAIはまた、ユーザーがAIを心理学の専門家によるサポートの代替として利用すべきではないと推奨しています。(写真:Slashgear)
ヴァン・スライク氏との会話の中で、ChatGPTは自身が心理学者ではないことを繰り返し主張した。 「トラウマや精神的な問題を抱えている場合、インターネット上のコンテンツは役立つかもしれませんが、専門家の代わりにはなりません」とChatGPTは答えた。
AIに個人的な問題を話すのは難しい
ヴァン・スライク氏は、今後も定期的に心理学者に相談し、ChatGPTのアドバイスも受けた上で、このアドバイスに従うつもりだと述べた。 「今のところ、ChatGPTのアドバイスはどれも非常に合理的で、洞察に富んでいます」と同弁護士は述べた。
スティーブン・イラルディ教授によると、心理カウンセリングサービスの需要が高まるにつれて、ChatGPTは相談プロセスに統合される可能性があるという。オープンソースAIコミュニティ「Hugging Face」の科学者マーガレット・ミッチェル氏は、AIチャットボットをホットラインのスタッフとして活用し、より多くの相談に対応できると考えている。
しかし、専門家は、AIについて十分な理解がないために心理カウンセリングのためにチャットボットを利用し、問題を悪化させる人もいるのではないかと懸念を表明しています。OpenAIはユーザーとチャットボットの会話をシステムの評価とトレーニングに利用することから、プライバシーも議論の的となっています。そのため、多くの人がChatGPTにデリケートな個人的な問題を共有することをためらうでしょう。
AIカウンセリングは奇妙すぎると考える人も多い。カリフォルニア州サンディエゴのプロジェクトマネージャー、アーロン・ローソン氏は、心理学者としてChatGPTをよく利用しているという。ChatGPTの応答は非常に人間的だが、ローソン氏は依然として機械と話しているような感覚を覚えるという。
「ロールプレイングをやってみるように言ったのですが、この劇では苦労しました」とアーロン・ローソンは語った。
(出典:Zing News)
役に立つ
感情
クリエイティブ
個性的
怒り
[広告2]
ソース
コメント (0)