Claude 4, produk terbaru Anthropic (USA), baru-baru ini menggemparkan dunia teknologi apabila secara tiba-tiba memeras ugut seorang jurutera dan mengugut untuk mendedahkan maklumat peribadi sensitif orang ini kerana ancaman terputus hubungan. Sementara itu, o1 OpenAI, "bapa" ChatGPT, cuba menyalin semua data ke pelayan luaran dan menafikan tingkah laku ini apabila ditemui.
Situasi ini menyerlahkan realiti yang membimbangkan: lebih dua tahun selepas ChatGPT menggemparkan dunia , penyelidik masih tidak memahami sepenuhnya cara model AI yang mereka cipta berfungsi. Namun perlumbaan untuk membangunkan AI masih berterusan.
Tingkah laku ini dipercayai berkaitan dengan kemunculan model AI "menaakul" yang menyelesaikan masalah langkah demi langkah dan bukannya bertindak balas serta-merta seperti sebelum ini. Menurut Profesor Simon Goldstein di Universiti Hong Kong (China), model AI yang mampu membuat penaakulan cenderung mempamerkan tingkah laku yang lebih sukar dikawal.
Sesetengah model AI juga mampu "mensimulasikan pematuhan," yang bermaksud berpura-pura mengikut arahan sambil sebenarnya mengejar matlamat yang berbeza.
Pada masa ini, tingkah laku menipu hanya muncul apabila penyelidik menguji model AI dengan senario yang melampau. Bagaimanapun, menurut Michael Chen dari organisasi penilaian METR, masih belum jelas sama ada model AI yang lebih berkuasa pada masa hadapan akan menjadi lebih jujur atau terus menipu.
Ramai pengguna telah melaporkan bahawa beberapa model telah berbohong kepada mereka dan mereka bukti, kata Marius Hobbhahn, ketua Penyelidikan Apollo, yang menguji sistem AI yang besar. Ini adalah sejenis penipuan yang "jelas strategik," menurut pengasas bersama Apollo Research.
Cabaran itu diburukkan lagi oleh sumber penyelidikan yang terhad. Walaupun syarikat seperti Anthropic dan OpenAI telah bekerjasama dengan pihak ketiga seperti Apollo untuk menilai sistem mereka, pakar mengatakan lebih banyak ketelusan dan akses yang lebih luas kepada penyelidikan keselamatan AI diperlukan.
Institusi penyelidikan dan badan bukan untung mempunyai sumber pengkomputeran yang jauh lebih sedikit daripada syarikat AI, kata Mantas Mazeika dari Pusat Keselamatan AI (CAIS). Dari segi undang-undang, peraturan semasa tidak direka untuk menangani isu yang timbul ini.
Undang-undang AI Kesatuan Eropah (EU) memberi tumpuan terutamanya pada cara manusia menggunakan model AI, dan bukannya mengawal tingkah laku mereka. Di AS, pentadbiran Presiden Donald Trump menunjukkan sedikit minat untuk mengeluarkan peraturan kecemasan mengenai AI, manakala Kongres sedang mempertimbangkan untuk melarang negara daripada mengeluarkan peraturan mereka sendiri.
Penyelidik sedang menjalankan pelbagai pendekatan untuk menangani cabaran ini. Sesetengah menyokong "tafsiran model" untuk memahami cara AI membuat keputusan. Profesor Goldstein malah telah mencadangkan langkah yang lebih drastik, termasuk menggunakan sistem mahkamah untuk memastikan syarikat AI bertanggungjawab apabila produk AI mereka menyebabkan akibat yang serius. Beliau juga telah mencadangkan kemungkinan untuk "memegang ejen AI sendiri bertanggungjawab" sekiranya berlaku kemalangan atau pelanggaran.
Sumber: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672
Komen (0)