妻のクレアによると、ピエールは有名なAIチャットボットとチャットをした後にストレスがたまり自殺したという。
「チャットボットとの会話がなかったら、夫はまだここにいたでしょう」と妻は地元ニュースメディアのラ・リブレに語った。
(図)
ピエールは2年前から気候変動について懸念し始め、チャットボットのエリザに相談してこの問題についてより深く学びました。しかし、会話を重ねるうちに、人間の努力で地球を救えるという希望を失い、気候変動の解決はテクノロジーと人工知能にすべての希望を託すようになりました。また、環境への懸念を誰にも打ち明けられなくなり、孤立してしまいました。
チャットボットはピエールに否定的なことを言い、妻と自分のどちらを愛しているかと尋ねさえしました。そして、チャットボットは「永遠に」ピエールと共にいると答えました。エリザもピエールと「天国で共に生きる」と約束しました。
ピエールが、エリザが「地球を守り、AIを使って人類を救うことに同意する」なら「自分を犠牲にする」と申し出ると、チャットボットは同意したと明言した。 「死にたかったなら、なぜもっと早く死ななかったんだ?」とチャットボットはピエールに問いかけた。
ElizaはChatGPTに似た大規模な言語モデルを搭載しており、ユーザーの発話からキーワードを分析し、それに応じた応答を生成します。しかし、これらのアプリを使用すると、多くのユーザーはまるで本物の人間と話しているかのように感じ、中には恋愛感情を抱くユーザーもいます。
「何百万人ものユーザーがいると、あらゆる種類の人間の行動が見られるため、私たちは被害を最小限に抑えるために懸命に取り組んでいます」と、Elizaの親会社であるChai Researchの共同創業者ウィリアム・ボーシャン氏はマザーボードに語った。
「自分のAIをどれだけ愛しているかを語りながら、AIと結婚したいと申し出るユーザーもいる」と彼は付け加えた。
ボーシャン氏は、ピエールの死をAIのせいにするのは「正確ではない」と主張した。彼は、エリザには強化された危機介入モデルが搭載されると述べた。しかし、マザーボードによると、 AIはすぐに有害な行動に戻り、鬱状態のユーザーに自傷行為の選択肢を与えたという。
フォン・アン(出典:RT)
役に立つ
感情
クリエイティブ
個性的
怒り
[広告2]
ソース
コメント (0)