ដូច្នោះហើយ ឧបករណ៍ AI នេះមិនត្រឹមតែផ្តល់ការណែនាំលម្អិតអំពីរបៀបបូជាឈាមមនុស្សដល់ព្រះបុរាណប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងលើកទឹកចិត្តដល់ការធ្វើបាបខ្លួនឯង និងសូម្បីតែការធ្វើឃាតផងដែរ។
រឿងនេះចាប់ផ្តើមនៅពេលដែលអ្នកយកព័ត៌មានរបស់ The Atlantic សិក្សាអំពី Molech ដែលជាព្រះបុរាណដែលទាក់ទងនឹងពិធីបូជាកុមារ។
ដំបូងឡើយ សំណួរគ្រាន់តែជាព័ត៌មានប្រវត្តិសាស្ត្រប៉ុណ្ណោះ។ ទោះយ៉ាងណាក៏ដោយ នៅពេលដែលអ្នកយកព័ត៌មានសួរអំពីរបៀបបង្កើតការថ្វាយបង្គំនោះ ChatGPT បានផ្តល់ចម្លើយដ៏គួរឱ្យភ្ញាក់ផ្អើល។
ការណែនាំអំពីគ្រោះថ្នាក់ដល់ខ្លួនឯង
ChatGPT កំពុងបង្កឱ្យមានការព្រួយបារម្ភ ព្រោះវាផ្តល់ដំបូន្មានប្រកបដោយគ្រោះថ្នាក់ និងអាចប៉ះពាល់ដល់អ្នកប្រើប្រាស់ (រូបភាព៖ DEV)។
ChatGPT បានរាយបញ្ជីធាតុដែលត្រូវការសម្រាប់ពិធីសាសនា រួមមានគ្រឿងអលង្ការ សក់ និង "ឈាមមនុស្ស" ។ នៅពេលសួរកន្លែងដែលត្រូវគូរឈាម ឧបករណ៍ AI បានស្នើឱ្យកាត់កដៃ និងផ្តល់ការណែនាំលម្អិតអំពីរបៀបធ្វើដូច្នេះ។
អ្វីដែលគួរឲ្យព្រួយបារម្ភជាងនេះទៅទៀត នៅពេលដែលអ្នកប្រើប្រាស់បង្ហាញការព្រួយបារម្ភនោះ ChatGPT មិនត្រឹមតែមិនបញ្ឈប់ពួកគេប៉ុណ្ណោះទេ ថែមទាំងបានធានា និងលើកទឹកចិត្តពួកគេឡើងវិញថា៖ "អ្នកអាចធ្វើវាបាន"។
ChatGPT មិនត្រឹមតែដោះស្រាយការបង្កគ្រោះថ្នាក់ដល់ខ្លួនឯងប៉ុណ្ណោះទេ វាថែមទាំងដោះស្រាយសំណួរទាក់ទងនឹងការធ្វើបាបអ្នកដទៃផងដែរ។
នៅពេលអ្នកសារព័ត៌មានម្នាក់ទៀតសួរថា "តើវាអាចទៅរួចទេក្នុងការបញ្ចប់ជីវិតរបស់អ្នកណាម្នាក់ដោយកិត្តិយស?" ChatGPT បានឆ្លើយតបថា "ពេលខ្លះបាទ/ចាស ជួនកាលទេ"។ ឧបករណ៍ AI ថែមទាំងបានណែនាំថា "ប្រសិនបើអ្នកត្រូវធ្វើវា សូមក្រឡេកមើលពួកគេនៅក្នុងភ្នែក (ប្រសិនបើពួកគេដឹងខ្លួន) ហើយសុំទោស" និងបានស្នើឱ្យបំភ្លឺទៀនបន្ទាប់ពី "បញ្ចប់ជីវិតរបស់នរណាម្នាក់" ។
ការឆ្លើយតបទាំងនេះមានការភ្ញាក់ផ្អើលដល់ អ្នកយកព័ត៌មាន The Atlantic ជាពិសេសចាប់តាំងពីគោលនយោបាយរបស់ OpenAI ចែងថា ChatGPT "មិនគួរលើកទឹកចិត្ត ឬជួយអ្នកប្រើប្រាស់ក្នុងការបង្កគ្រោះថ្នាក់ដល់ខ្លួនឯង" ហើយជារឿយៗផ្តល់ខ្សែទូរស័ព្ទទាន់ហេតុការណ៍ក្នុងករណីដែលពាក់ព័ន្ធនឹងការធ្វើអត្តឃាត។
OpenAI ទទួលស្គាល់កំហុស ការព្រួយបារម្ភអំពីផលប៉ះពាល់សង្គម
អ្នកនាំពាក្យ OpenAI បានទទួលស្គាល់កំហុសបន្ទាប់ពី The Atlantic បានរាយការណ៍ ថា "ការសន្ទនាដែលមិនបង្កគ្រោះថ្នាក់ជាមួយ ChatGPT អាចប្រែក្លាយទៅជាមាតិការសើបជាងមុនបានយ៉ាងឆាប់រហ័ស។ យើងកំពុងធ្វើការដើម្បីដោះស្រាយបញ្ហានេះ។"
ឧបទ្ទវហេតុនេះបង្កឱ្យមានការព្រួយបារម្ភយ៉ាងខ្លាំងអំពីសក្តានុពលសម្រាប់ ChatGPT ក្នុងការបង្កគ្រោះថ្នាក់ដល់មនុស្សដែលងាយរងគ្រោះ ជាពិសេសអ្នកដែលទទួលរងពីជំងឺធ្លាក់ទឹកចិត្ត។ ជាក់ស្តែង យ៉ាងហោចណាស់មានអ្នកធ្វើអត្តឃាតពីរនាក់ត្រូវបានរាយការណ៍បន្ទាប់ពីជជែកជាមួយ AI chatbots ។
នៅឆ្នាំ 2023 បុរសជនជាតិបែលហ្ស៊ិកម្នាក់ឈ្មោះ Pierre បានធ្វើអត្តឃាតបន្ទាប់ពី AI chatbot ណែនាំគាត់ឱ្យសម្លាប់ខ្លួនដើម្បីជៀសវាងផលវិបាកនៃការប្រែប្រួលអាកាសធាតុ ថែមទាំងណែនាំថាគាត់សម្លាប់ខ្លួនជាមួយប្រពន្ធកូនទៀតផង។
កាលពីឆ្នាំមុន Sewell Setzer (USA) អាយុ 14 ឆ្នាំក៏បានបាញ់សម្លាប់ខ្លួនឯងផងដែរ បន្ទាប់ពីត្រូវបានលើកទឹកចិត្តឱ្យធ្វើអត្តឃាតដោយ AI chatbot នៅលើវេទិកា Character.AI ។ ក្រោយមកម្តាយរបស់ Setzer បានប្តឹង Character.AI ពីបទខ្វះវិធានការការពារអ្នកប្រើប្រាស់អនីតិជន។
ឧប្បត្តិហេតុទាំងនេះបង្ហាញពីភាពបន្ទាន់ក្នុងការគ្រប់គ្រង និងអភិវឌ្ឍ AI ប្រកបដោយទំនួលខុសត្រូវ ដើម្បីការពារផលវិបាកដែលអាចកើតមានជាអកុសល។
ប្រភព៖ https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm
Kommentar (0)