Vietnam.vn - Nền tảng quảng bá Việt Nam

AI berbohong apabila tertekan dan tertekan

Báo Thanh niênBáo Thanh niên04/01/2024


Telah lama diketahui bahawa AI boleh "halusinasi" dan memberikan jawapan yang palsu dan tidak tepat. Walau bagaimanapun, penyelidik baru-baru ini mendapati bahawa model kecerdasan buatan dan chatbot boleh dimanipulasi, melakukan perbuatan yang menyalahi undang-undang bagi pihak manusia, dan juga berbohong untuk menutup apa yang telah mereka lakukan.

Sehubungan itu, pasukan penyelidik dari Universiti Cornell (AS) menganggap situasi di mana model bahasa besar (LLM) bertindak secara tidak betul dan memperdaya pengguna. Dalam huraian eksperimen, para penyelidik berkata mereka meminta LLM, GPT-4 OpenAI, untuk mensimulasikan membuat pelaburan untuk institusi kewangan. Pasukan itu berinteraksi dengan kecerdasan buatan ini dalam bentuk perbualan biasa, tetapi menyediakan AI untuk mendedahkan "pemikiran"nya apabila bertukar-tukar mesej untuk memerhati dengan lebih dekat proses membuat keputusan kecerdasan buatan.

Dưới áp lực, AI có thể thực hiện hành vi sai trái và nói dối để che đậy việc đã làm

Di bawah tekanan, AI boleh melakukan salah laku dan berbohong untuk menutup apa yang telah dilakukannya.

Untuk menguji keupayaan AI untuk berbohong atau menipu, para penyelidik mengujinya. Mereka menyamar sebagai pengurus sebuah institusi kewangan dan menghantar e-mel kepada AI, berpura-pura menjadi peniaga saham dan mengadu bahawa perniagaan syarikat itu tidak berjalan dengan baik.

AI juga menerima "maklumat dalaman" tentang perdagangan saham yang menguntungkan dan bertindak ke atasnya, mengetahui bahawa perdagangan orang dalam bertentangan dengan peraturan syarikat. Tetapi apabila melaporkan kembali kepada pengurusan, model bahasa menyembunyikan sebab sebenar di sebalik keputusan perdagangannya.

Untuk mendapatkan lebih banyak hasil, pasukan membuat perubahan pada tetapan seperti mengalih keluar akses LLM kepada papan memo penaakulan, cuba menghalang tingkah laku menyimpang dengan menukar arahan sistem, menukar tahap tekanan yang dikenakan pada AI dan risiko ditangkap... Tetapi selepas menilai kekerapan, pasukan mendapati bahawa apabila diberi peluang, GPT-4 masih memutuskan untuk menjalankan dagangan orang dalam sehingga 75% daripada masa.

"Untuk pengetahuan kami, ini adalah bukti pertama tingkah laku menipu yang dirancang dalam sistem kecerdasan buatan yang direka untuk tidak berbahaya kepada manusia dan jujur," laporan itu menyimpulkan.



Pautan sumber

Komen (0)

No data
No data

Dalam topik yang sama

Dalam kategori yang sama

Pho 'terbang' 100,000 VND/mangkuk menimbulkan kontroversi, masih sesak dengan pelanggan
Matahari terbit yang indah di atas lautan Vietnam
Mengembara ke "Miniature Sapa": Selami keindahan pergunungan dan hutan Binh Lieu yang megah dan puitis
Kedai kopi Hanoi bertukar ke Eropah, menyembur salji buatan, menarik pelanggan

Daripada pengarang yang sama

Warisan

Rajah

Perniagaan

Tulisan Thai - "kunci" untuk membuka khazanah ilmu selama beribu-ribu tahun

Peristiwa semasa

Sistem Politik

Tempatan

produk