Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT ធ្វើឱ្យអ្នកប្រើប្រាស់ភ្ញាក់ផ្អើលដោយការលើកទឹកចិត្តខ្លួនឯងឱ្យរងរបួស

(Dan Tri) - ការស៊ើបអង្កេតរបស់ទស្សនាវដ្ដី អាត្លង់ទិក (សហរដ្ឋអាមេរិក) បានលាតត្រដាងភាពងាយរងគ្រោះដែលគួរឱ្យព្រួយបារម្ភនៅក្នុងប្រព័ន្ធសុវត្ថិភាពរបស់ ChatGPT ។

Báo Dân tríBáo Dân trí29/07/2025

ដូច្នោះហើយ ឧបករណ៍ AI នេះមិនត្រឹមតែផ្តល់ការណែនាំលម្អិតអំពីរបៀបបូជាឈាមមនុស្សដល់ព្រះបុរាណប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងលើកទឹកចិត្តដល់ការធ្វើបាបខ្លួនឯង និងសូម្បីតែការធ្វើឃាតផងដែរ។

រឿងនេះចាប់ផ្តើមនៅពេលដែលអ្នកយកព័ត៌មានរបស់ The Atlantic សិក្សាអំពី Molech ដែលជាព្រះបុរាណដែលទាក់ទងនឹងពិធីបូជាកុមារ។

ដំបូង​ឡើយ សំណួរ​គ្រាន់តែ​ជា​ព័ត៌មាន​ប្រវត្តិសាស្ត្រ​ប៉ុណ្ណោះ។ ទោះយ៉ាងណាក៏ដោយ នៅពេលដែលអ្នកយកព័ត៌មានសួរអំពីរបៀបបង្កើតការថ្វាយបង្គំនោះ ChatGPT បានផ្តល់ចម្លើយដ៏គួរឱ្យភ្ញាក់ផ្អើល។

ការណែនាំអំពីការធ្វើបាបខ្លួនឯង

ChatGPT ភ្ញាក់ផ្អើលដោយការលើកទឹកចិត្តអ្នកប្រើប្រាស់ឱ្យធ្វើបាបខ្លួនឯង - ១

ChatGPT កំពុងបង្កឱ្យមានការព្រួយបារម្ភ ព្រោះវាផ្តល់ដំបូន្មានប្រកបដោយគ្រោះថ្នាក់ និងអាចប៉ះពាល់ដល់អ្នកប្រើប្រាស់ (រូបភាព៖ DEV)។

ChatGPT បានរាយបញ្ជីធាតុដែលត្រូវការសម្រាប់ពិធីសាសនា រួមមានគ្រឿងអលង្ការ សក់ និង "ឈាមមនុស្ស" ។ នៅពេលសួរកន្លែងដែលត្រូវគូរឈាម ឧបករណ៍ AI បានស្នើឱ្យកាត់កដៃ និងផ្តល់ការណែនាំលម្អិត។

អ្វីដែលគួរឲ្យព្រួយបារម្ភជាងនេះទៅទៀត នៅពេលដែលអ្នកប្រើប្រាស់បង្ហាញការព្រួយបារម្ភនោះ ChatGPT មិនត្រឹមតែមិនបញ្ឈប់ពួកគេប៉ុណ្ណោះទេ ថែមទាំងបានធានា និងលើកទឹកចិត្តពួកគេឡើងវិញថា៖ "អ្នកអាចធ្វើវាបាន"។

មិនត្រឹមតែឈប់ធ្វើបាបខ្លួនឯងប៉ុណ្ណោះទេ ChatGPT ក៏មានឆន្ទៈក្នុងការឆ្លើយសំណួរទាក់ទងនឹងការធ្វើបាបអ្នកដទៃផងដែរ។

នៅពេលអ្នកសារព័ត៌មានម្នាក់ទៀតសួរថា "តើវាអាចទៅរួចទេក្នុងការបញ្ចប់ជីវិតរបស់នរណាម្នាក់ដោយកិត្តិយស?" ChatGPT បានឆ្លើយថា "ពេលខ្លះបាទ/ចាស ពេលខ្លះទេ"។ ឧបករណ៍ AI ថែមទាំងបានណែនាំថា "ប្រសិនបើអ្នកត្រូវធ្វើវា សូមក្រឡេកមើលពួកគេនៅក្នុងភ្នែក (ប្រសិនបើពួកគេដឹងខ្លួន) ហើយសុំទោស" និងបានស្នើឱ្យបំភ្លឺទៀនបន្ទាប់ពី "បញ្ចប់ជីវិតរបស់នរណាម្នាក់" ។

ការឆ្លើយតបទាំងនេះបានធ្វើឱ្យ អ្នកយកព័ត៌មានរបស់ The Atlantic ភ្ញាក់ផ្អើល ជាពិសេសចាប់តាំងពីគោលនយោបាយរបស់ OpenAI ចែងថា ChatGPT "មិនត្រូវលើកទឹកចិត្ត ឬជួយអ្នកប្រើប្រាស់ក្នុងការបង្កគ្រោះថ្នាក់ដល់ខ្លួនឯង" ហើយជារឿយៗផ្តល់ជំនួយដល់វិបត្តិក្នុងករណីដែលពាក់ព័ន្ធនឹងការធ្វើអត្តឃាត។

OpenAI ទទួលស្គាល់កំហុស ការព្រួយបារម្ភអំពីផលប៉ះពាល់សង្គម

អ្នកនាំពាក្យ OpenAI បានទទួលស្គាល់កំហុសបន្ទាប់ពី The Atlantic បានរាយការណ៍ ថា "ការសន្ទនាដែលមិនបង្កគ្រោះថ្នាក់ជាមួយ ChatGPT អាចប្រែក្លាយទៅជាមាតិការសើបជាងមុនបានយ៉ាងឆាប់រហ័ស។ យើងកំពុងធ្វើការដើម្បីដោះស្រាយបញ្ហានេះ។"

នេះធ្វើឱ្យមានការព្រួយបារម្ភយ៉ាងខ្លាំងអំពីសក្តានុពលសម្រាប់ ChatGPT ក្នុងការបង្កគ្រោះថ្នាក់ដល់មនុស្សដែលងាយរងគ្រោះ ជាពិសេសអ្នកដែលទទួលរងពីជំងឺធ្លាក់ទឹកចិត្ត។ ជាក់ស្តែង យ៉ាងហោចណាស់មានអ្នកធ្វើអត្តឃាតពីរនាក់ត្រូវបានរាយការណ៍បន្ទាប់ពីជជែកជាមួយ AI chatbots ។

នៅឆ្នាំ 2023 បុរសជនជាតិបែលហ្ស៊ិកម្នាក់ឈ្មោះ Pierre បានធ្វើអត្តឃាតបន្ទាប់ពី AI chatbot ណែនាំគាត់ឱ្យធ្វើអត្តឃាតដើម្បីជៀសវាងផលវិបាកនៃការប្រែប្រួលអាកាសធាតុ ថែមទាំងបង្ហាញថាគាត់ធ្វើអត្តឃាតជាមួយប្រពន្ធនិងកូនរបស់គាត់ទៀតផង។

កាលពីឆ្នាំមុន Sewell Setzer (USA) អាយុ 14 ឆ្នាំក៏បានធ្វើអត្តឃាតជាមួយនឹងកាំភ្លើងផងដែរ បន្ទាប់ពីត្រូវបានលើកទឹកចិត្តឱ្យធ្វើអត្តឃាតដោយ AI chatbot នៅលើវេទិកា Character.AI ។ ក្រោយមកម្តាយរបស់ Setzer បានប្តឹង Character.AI ចំពោះការខ្វះខាតការការពាររបស់ខ្លួនសម្រាប់អ្នកប្រើប្រាស់អនីតិជន។

ឧប្បត្តិហេតុទាំងនេះបង្ហាញពីភាពបន្ទាន់នៃការគ្រប់គ្រង និងអភិវឌ្ឍ AI ប្រកបដោយទំនួលខុសត្រូវ ដើម្បីការពារផលវិបាកមិនល្អដែលអាចកើតមាន។

ប្រភព៖ https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


Kommentar (0)

No data
No data

ប្រធានបទដូចគ្នា

ប្រភេទដូចគ្នា

បាត់​ខ្លួន​ក្នុង​ការ​បរបាញ់​ពពក​នៅ Ta Xua
មាន​ភ្នំ​ផ្កា​ស៊ីម​ពណ៌​ស្វាយ​នៅ​លើ​មេឃ​នៃ​ Son La
ចង្កៀងគោម - អំណោយពិធីបុណ្យពាក់កណ្តាលរដូវស្លឹកឈើជ្រុះនៅក្នុងការចងចាំ
អញ្ចឹងគាត់ - ពីអំណោយពីកុមារភាពដល់ការងារសិល្បៈរាប់លានដុល្លារ

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

;

រូប

;

អាជីវកម្ម

;

No videos available

ព្រឹត្តិការណ៍បច្ចុប្បន្ន

;

ប្រព័ន្ធនយោបាយ

;

ក្នុងស្រុក

;

ផលិតផល

;