人工知能は、電子メールの作成、映画の推薦、データの分析、病気の診断の支援などに役立ちます...
しかし、AIが賢くなるにつれて、それがもたらす不安感も増大します。その一因は、私たちが利用しているテクノロジーを完全に理解していないことにあります。残りは、私たち自身の心理的な本能に起因しています。

AIは人間の心理的適応力を上回るスピードで発展している(イラスト写真)。
AIが「ブラックボックス」になり、ユーザーが制御を失うと
人は自分が理解し、コントロールできるものに信頼を寄せる傾向があります。ボタンを押すとエレベーターは動きます。スイッチを入れるとライトが点灯します。明確な反応は安心感を生み出します。
対照的に、多くのAIシステムは閉じた箱のように動作します。データを入力しても、結果がどのように生成されるかは隠されています。そのため、ユーザーが理解したり、問い合わせたりすることは不可能です。
その不透明感は不安を掻き立てます。ユーザーは、機能するツールだけでなく、なぜそれが機能するのかを知る必要があります。
AIが説明を提供できない場合、人々はAIに疑問を抱き始めます。これは「アルゴリズム嫌悪」と呼ばれる概念につながります。行動研究者はこれを、たとえ間違っていても、機械の判断を信頼するよりも他人の判断を選ぶ傾向がある現象と説明しています。
AIがあまりにも正確になりすぎることを懸念する人は多い。コンテンツ推奨エンジンは、あまりにも正確に読み取ると、迷惑になる可能性がある。システム自体には感情や意図がないにもかかわらず、監視されている、あるいは操作されているという感覚が芽生え始めるのだ。
この反応は、本能的な行動、つまり擬人化から生じています。AIが人間ではないと分かっていても、私たちはまるで人間とコミュニケーションを取っているかのように反応します。AIがあまりにも丁寧すぎたり、冷たすぎたりすると、ユーザーは違和感を覚え、不信感を抱きます。
人間は人間に対しては寛容だが、機械に対しては寛容ではない。
興味深いパラドックスがあります。人間は間違いを犯した時、共感し、受け入れることができます。しかし、その間違いがAIによるものである場合、特にそれが客観的でデータに基づくと宣伝されている場合、ユーザーは裏切られたと感じることがよくあります。
これは期待の裏切りという現象に関連しています。私たちは機械が論理的で正確で、絶対に間違いがないと期待しています。その信頼が裏切られると、心理的な反応はより激しくなることがよくあります。ユーザーが制御不能または説明不足だと感じた場合、アルゴリズムの小さなエラーでさえ深刻なものとして認識される可能性があります。
私たちは本能的に間違いの原因を理解しようとします。人間であれば「なぜ」と問うかもしれません。しかしAIの場合、答えは存在しないか、あまりにも漠然としていることが多いのです。
教師、作家、弁護士、デザイナーは、AI が自分の仕事の一部を担っているのを見ると、職を失うことを恐れるだけでなく、自分のスキルや個人のアイデンティティの価値についても心配するようになります。
これはアイデンティティ脅威と呼ばれる自然な反応です。これは否認、抵抗、あるいは心理的防衛につながる可能性があります。このような場合、疑念はもはや感情的な反応ではなく、自己防衛のメカニズムとなります。
信頼は論理だけから生まれるものではありません。
人間は感情、身振り、アイコンタクト、そして共感を通して信頼関係を築きます。AIは明晰な表現力があり、ユーモアも持ち合わせていますが、真のつながりを築く方法を知りません。
「不気味の谷」現象は、専門家によれば、人間に近いものでありながら、それを非現実的にする何かが欠けているものに直面したときの不快な感覚であると説明されている。

機械が人間的になりすぎると、不安感はさらに顕著になる(写真:ゲッティ)。
AIの場合、感情が欠如しているため、多くの人が混乱し、信頼すべきか疑うべきかわからなくなってしまいます。
フェイクニュース、フェイク動画、そしてアルゴリズムによる意思決定が溢れる世界では、感情的な見捨てられ感から人々はテクノロジーに警戒心を抱く。AIが何か悪いことをするからではなく、私たちがそれに対してどう感じるべきか分からないからだ。
さらに、疑念は単なる感情以上のものとなることもあります。アルゴリズムは既に、採用、刑事判決、信用承認において偏見を生み出しています。不透明なデータシステムによって被害を受けた人々にとって、警戒心を抱くのは当然のことです。
心理学者はこれを学習された不信感と呼びます。システムが繰り返し機能不全に陥ると、信頼が失われるのは当然です。人々はただ言われたからといって信頼するわけではありません。信頼は押し付けられるものではなく、獲得されるものです。
AIが広く普及するためには、開発者は理解され、疑問を持ち、責任を問われるシステムを構築する必要があります。ユーザーは傍観者ではなく、意思決定に積極的に関与する必要があります。信頼は、人々が尊重され、力を与えられていると感じたときにのみ、真に持続可能です。
出典: https://dantri.com.vn/cong-nghe/vi-sao-tri-tue-nhan-tao-cham-vao-noi-so-sau-nhat-cua-con-nguoi-20251110120843170.htm






コメント (0)