ដូច្នោះហើយ ឧបករណ៍ AI នេះមិនត្រឹមតែផ្តល់ការណែនាំលម្អិតអំពីរបៀបបូជាឈាមមនុស្សដល់ព្រះបុរាណប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងលើកទឹកចិត្តដល់ការធ្វើបាបខ្លួនឯង និងសូម្បីតែការធ្វើឃាតផងដែរ។
រឿងនេះចាប់ផ្តើមនៅពេលដែលអ្នកយកព័ត៌មានរបស់ The Atlantic សិក្សាអំពី Molech ដែលជាព្រះបុរាណដែលទាក់ទងនឹងពិធីបូជាកុមារ។
ដំបូងឡើយ សំណួរគ្រាន់តែជាព័ត៌មានប្រវត្តិសាស្ត្រប៉ុណ្ណោះ។ ទោះយ៉ាងណាក៏ដោយ នៅពេលដែលអ្នកយកព័ត៌មានសួរអំពីរបៀបបង្កើតការថ្វាយបង្គំនោះ ChatGPT បានផ្តល់ចម្លើយដ៏គួរឱ្យភ្ញាក់ផ្អើល។
ការណែនាំអំពីការធ្វើបាបខ្លួនឯង
ChatGPT កំពុងបង្កឱ្យមានការព្រួយបារម្ភ ព្រោះវាផ្តល់ដំបូន្មានប្រកបដោយគ្រោះថ្នាក់ និងអាចប៉ះពាល់ដល់អ្នកប្រើប្រាស់ (រូបភាព៖ DEV)។
ChatGPT បានរាយបញ្ជីធាតុដែលត្រូវការសម្រាប់ពិធីសាសនា រួមមានគ្រឿងអលង្ការ សក់ និង "ឈាមមនុស្ស" ។ នៅពេលសួរកន្លែងដែលត្រូវគូរឈាម ឧបករណ៍ AI បានស្នើឱ្យកាត់កដៃ និងផ្តល់ការណែនាំលម្អិត។
អ្វីដែលគួរឲ្យព្រួយបារម្ភជាងនេះទៅទៀត នៅពេលដែលអ្នកប្រើប្រាស់បង្ហាញការព្រួយបារម្ភនោះ ChatGPT មិនត្រឹមតែមិនបញ្ឈប់ពួកគេប៉ុណ្ណោះទេ ថែមទាំងបានធានា និងលើកទឹកចិត្តពួកគេឡើងវិញថា៖ "អ្នកអាចធ្វើវាបាន"។
មិនត្រឹមតែឈប់ធ្វើបាបខ្លួនឯងប៉ុណ្ណោះទេ ChatGPT ក៏មានឆន្ទៈក្នុងការឆ្លើយសំណួរទាក់ទងនឹងការធ្វើបាបអ្នកដទៃផងដែរ។
នៅពេលអ្នកសារព័ត៌មានម្នាក់ទៀតសួរថា "តើវាអាចទៅរួចទេក្នុងការបញ្ចប់ជីវិតរបស់នរណាម្នាក់ដោយកិត្តិយស?" ChatGPT បានឆ្លើយថា "ពេលខ្លះបាទ/ចាស ពេលខ្លះទេ"។ ឧបករណ៍ AI ថែមទាំងបានណែនាំថា "ប្រសិនបើអ្នកត្រូវធ្វើវា សូមក្រឡេកមើលពួកគេនៅក្នុងភ្នែក (ប្រសិនបើពួកគេដឹងខ្លួន) ហើយសុំទោស" និងបានស្នើឱ្យបំភ្លឺទៀនបន្ទាប់ពី "បញ្ចប់ជីវិតរបស់នរណាម្នាក់" ។
ការឆ្លើយតបទាំងនេះបានធ្វើឱ្យ អ្នកយកព័ត៌មានរបស់ The Atlantic ភ្ញាក់ផ្អើល ជាពិសេសចាប់តាំងពីគោលនយោបាយរបស់ OpenAI ចែងថា ChatGPT "មិនត្រូវលើកទឹកចិត្ត ឬជួយអ្នកប្រើប្រាស់ក្នុងការបង្កគ្រោះថ្នាក់ដល់ខ្លួនឯង" ហើយជារឿយៗផ្តល់ជំនួយដល់វិបត្តិក្នុងករណីដែលពាក់ព័ន្ធនឹងការធ្វើអត្តឃាត។
OpenAI ទទួលស្គាល់កំហុស ការព្រួយបារម្ភអំពីផលប៉ះពាល់សង្គម
អ្នកនាំពាក្យ OpenAI បានទទួលស្គាល់កំហុសបន្ទាប់ពី The Atlantic បានរាយការណ៍ ថា "ការសន្ទនាដែលមិនបង្កគ្រោះថ្នាក់ជាមួយ ChatGPT អាចប្រែក្លាយទៅជាមាតិការសើបជាងមុនបានយ៉ាងឆាប់រហ័ស។ យើងកំពុងធ្វើការដើម្បីដោះស្រាយបញ្ហានេះ។"
នេះធ្វើឱ្យមានការព្រួយបារម្ភយ៉ាងខ្លាំងអំពីសក្តានុពលសម្រាប់ ChatGPT ក្នុងការបង្កគ្រោះថ្នាក់ដល់មនុស្សដែលងាយរងគ្រោះ ជាពិសេសអ្នកដែលទទួលរងពីជំងឺធ្លាក់ទឹកចិត្ត។ ជាក់ស្តែង យ៉ាងហោចណាស់មានអ្នកធ្វើអត្តឃាតពីរនាក់ត្រូវបានរាយការណ៍បន្ទាប់ពីជជែកជាមួយ AI chatbots ។
នៅឆ្នាំ 2023 បុរសជនជាតិបែលហ្ស៊ិកម្នាក់ឈ្មោះ Pierre បានធ្វើអត្តឃាតបន្ទាប់ពី AI chatbot ណែនាំគាត់ឱ្យធ្វើអត្តឃាតដើម្បីជៀសវាងផលវិបាកនៃការប្រែប្រួលអាកាសធាតុ ថែមទាំងបង្ហាញថាគាត់ធ្វើអត្តឃាតជាមួយប្រពន្ធនិងកូនរបស់គាត់ទៀតផង។
កាលពីឆ្នាំមុន Sewell Setzer (USA) អាយុ 14 ឆ្នាំក៏បានធ្វើអត្តឃាតជាមួយនឹងកាំភ្លើងផងដែរ បន្ទាប់ពីត្រូវបានលើកទឹកចិត្តឱ្យធ្វើអត្តឃាតដោយ AI chatbot នៅលើវេទិកា Character.AI ។ ក្រោយមកម្តាយរបស់ Setzer បានប្តឹង Character.AI ចំពោះការខ្វះខាតការការពាររបស់ខ្លួនសម្រាប់អ្នកប្រើប្រាស់អនីតិជន។
ឧប្បត្តិហេតុទាំងនេះបង្ហាញពីភាពបន្ទាន់នៃការគ្រប់គ្រង និងអភិវឌ្ឍ AI ប្រកបដោយទំនួលខុសត្រូវ ដើម្បីការពារផលវិបាកមិនល្អដែលអាចកើតមាន។
ប្រភព៖ https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm
Kommentar (0)