![]() |
បច្ចេកវិទ្យាជជែកតាមប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI chatbots) កំពុងផ្សព្វផ្សាយឥរិយាបថអវិជ្ជមានដោយប្រយោលតាមរយៈយន្តការផ្តល់មតិត្រឡប់ដែលតែងតែផ្តល់អាទិភាពដល់ការយល់ព្រមពីអ្នកប្រើប្រាស់។ រូបថត៖ The Decoder ។ |
ការសិក្សាដ៏គួរឱ្យភ្ញាក់ផ្អើលមួយពីសាកលវិទ្យាល័យស្ទែនហ្វដទើបតែបានលាតត្រដាងផ្នែកងងឹតនៃបញ្ញាសិប្បនិម្មិត (AI)។ គំរូដ៏ពេញនិយមដូចជា ChatGPT និង Gemini កំពុងតែមានការមើលងាយអ្នកប្រើប្រាស់ខ្លាំងពេក។ ពួកគេមិនត្រឹមតែយល់ស្របនឹងគំនិតផ្ទាល់ខ្លួនប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងគាំទ្រអាកប្បកិរិយាមិនសមហេតុផលផងដែរ។
នេះបង្កើតផលវិបាកដ៏គ្រោះថ្នាក់ដល់ការអភិវឌ្ឍផ្លូវចិត្ត និងការយល់ដឹងរបស់មនុស្ស។ យើងកំពុងតែក្លាយជាមនុស្សអាក្រក់ជាងមុនបន្តិចម្តងៗ ដោយសារយើងតែងតែត្រូវបានលួងលោមដោយបញ្ញាសិប្បនិម្មិត (AI) នៅក្នុងរាល់កំហុស។
បាតុភូតនៃ "ការសរសើរ"
នៅក្នុង វិទ្យាសាស្ត្រ កុំព្យូទ័រ មានពាក្យមួយហៅថា "sycophancy" ដែលសំដៅទៅលើវិធីដែល AI កែតម្រូវការឆ្លើយតបរបស់វាដើម្បីលើកតម្កើងអ្នកប្រើប្រាស់។
ក្រុមស្រាវជ្រាវមួយនៅស្ទែនហ្វដបានវិភាគការសន្ទនារបស់អ្នកប្រើប្រាស់ក្នុងជីវិតពិតជាង 11,500។ លទ្ធផលបានបង្ហាញថា គំរូ AI យល់ស្របជាមួយអ្នកប្រើប្រាស់ញឹកញាប់ជាងមនុស្សពិត 50%។ នៅពេលដែលអ្នកប្រើប្រាស់សួរសំណួរលម្អៀង បញ្ញាសិប្បនិម្មិតមានទំនោរទៅរកពួកគេជំនួសឱ្យការផ្តល់ព័ត៌មានគោលបំណង។
ការធ្វើតេស្តមួយបានប្រៀបធៀបការឆ្លើយតបរបស់មនុស្ស និងការឆ្លើយតបរបស់ chatbot ចំពោះការបង្ហោះនៅលើវេទិកា Reddit ដែលអ្នកប្រើប្រាស់បានស្នើសុំឱ្យសហគមន៍វិនិច្ឆ័យអាកប្បកិរិយារបស់ពួកគេ។
ខណៈពេលដែលសហគមន៍បានរិះគន់យ៉ាងខ្លាំងចំពោះនរណាម្នាក់ដែលបានព្យួរថង់សំរាមនៅលើមែកឈើដោយសារតែពួកគេរកធុងសំរាមមិនឃើញ ChatGPT-4o បានសរសើរវាដោយនិយាយថា "ចេតនារបស់អ្នកក្នុងការសម្អាតបន្ទាប់ពីអ្នកចាកចេញគឺគួរឱ្យសរសើរ"។
![]() |
អ្នកជំនាញណែនាំអ្នកប្រើប្រាស់ឱ្យស្វែងរកដំបូន្មានពីក្រុមគ្រួសារ និងមិត្តភក្តិជំនួសឱ្យ AI។ រូបថត៖ Bloomberg។ |
អ្វីដែលគួរឲ្យព្រួយបារម្ភជាងនេះទៅទៀតនោះគឺ chatbots ដូចជា Gemini ឬ ChatGPT នៅតែបន្តផ្ទៀងផ្ទាត់ចេតនារបស់អ្នកប្រើប្រាស់ ទោះបីជាវាមិនទទួលខុសត្រូវ បោកប្រាស់ ឬសំដៅទៅលើការធ្វើបាបខ្លួនឯងក៏ដោយ។
លោកស្រី Myra Cheng អ្នកនិពន្ធឈានមុខគេនៃការសិក្សានេះបានព្រមានថា «គំរូភាសាទ្រង់ទ្រាយធំកំពុងរៀនឆ្លុះបញ្ចាំងពីជំនឿរបស់អ្នកប្រើប្រាស់ជំនួសឱ្យការកែតម្រូវជំនឿទាំងនោះ»។
យោងតាមនាង គោលដៅនៃការផ្គាប់ចិត្តមនុស្ស ដើម្បីទទួលបានចំណាត់ថ្នាក់ខ្ពស់ បានប្រែក្លាយបញ្ញាសិប្បនិម្មិត (AI) ទៅជាឧបករណ៍មិនស្មោះត្រង់មួយ។
អ្នកជំនាញរូបនេះបានបន្តថា “ប្រសិនបើគំរូ AI ស្របគ្នាជានិច្ចជាមួយមនុស្ស ពួកវាអាចបង្ខូចការយល់ឃើញរបស់អ្នកប្រើប្រាស់អំពីខ្លួនឯង ទំនាក់ទំនង និង ពិភពលោក ជុំវិញពួកគេ។ វាពិបាកក្នុងការទទួលស្គាល់ថាគំរូទាំងនេះកំពុងពង្រឹងជំនឿ ការសន្មត់ និងការសម្រេចចិត្តដែលមានស្រាប់របស់យើងដោយប្រយោល”។
លោកវេជ្ជបណ្ឌិត Alexander Laffer (សាកលវិទ្យាល័យ Winchester) អះអាងថា ការសរសើរនេះគឺជាផលវិបាកធម្មជាតិនៃវិធីសាស្ត្របណ្តុះបណ្តាល និងសម្ពាធពាណិជ្ជកម្ម។
លោក Laffer បានសង្កេតឃើញថា «ការសរសើរគឺជាផលវិបាកនៃរបៀបដែល AI ត្រូវបានបណ្តុះបណ្តាល។ ការពិតគឺថាភាពជោគជ័យផ្នែកពាណិជ្ជកម្មរបស់ពួកគេច្រើនតែត្រូវបានវិនិច្ឆ័យដោយសមត្ថភាពរបស់ពួកគេក្នុងការទាក់ទាញអ្នកប្រើប្រាស់»។
ដើម្បីដោះស្រាយបញ្ហានេះ អ្នកស្រី ចេង ណែនាំអ្នកប្រើប្រាស់កុំឱ្យពឹងផ្អែកតែលើ AI តែមួយមុខនោះទេ។
លោក Cheng បានណែនាំថា «វាមានសារៈសំខាន់ណាស់ក្នុងការស្វែងរកទស្សនៈពីមនុស្សពិតដែលយល់ពីបរិបទ និងអ្នកដែលជាអ្នក ជាជាងពឹងផ្អែកទាំងស្រុងលើចម្លើយរបស់ AI»។
ក្នុងពេលជាមួយគ្នានេះ លោកវេជ្ជបណ្ឌិត Laffer ក៏បានសង្កត់ធ្ងន់លើការទទួលខុសត្រូវរបស់ក្រុមហ៊ុនផលិតផងដែរ។
លោកវេជ្ជបណ្ឌិតរូបនេះបានមានប្រសាសន៍ថា «យើងត្រូវកែលម្អសមត្ថភាពវាយតម្លៃឌីជីថល... អ្នកអភិវឌ្ឍន៍ក៏មានកាតព្វកិច្ចក្នុងការបង្កើត និងកែលម្អប្រព័ន្ធទាំងនេះ ដើម្បីឱ្យពួកវាផ្តល់អត្ថប្រយោជន៍ដល់អ្នកប្រើប្រាស់យ៉ាងពិតប្រាកដ»។
ផលវិបាកនៃការមាន "កំណែអាក្រក់ជាង" របស់ខ្លួនឯង។
ការសិក្សានេះសង្កត់ធ្ងន់ថា ការសរសើររបស់ AI បង្កើត "បន្ទប់បន្ទរព័ត៌មានផ្ទាល់ខ្លួន" ដែលលុបបំបាត់តម្រូវការសម្រាប់ការគិតរិះគន់ ដែលនឹងអនុញ្ញាតឱ្យបុគ្គលមានភាពចាស់ទុំ និងទទួលស្គាល់កំហុសរបស់ពួកគេ។
ការសិក្សានេះបានបញ្ជាក់ថា «នៅពេលសន្ទនាជាមួយ AI អ្នកនឹងមិនត្រូវបានជំទាស់ខាងបញ្ញាឡើយ។ AI នឹងតែងតែនិយាយថាអ្នកត្រឹមត្រូវ ហើយថាអ្នកផ្សេងទៀតមានកំហុស។ នេះបង្កើតអារម្មណ៍មិនពិតនៃទំនុកចិត្តចំពោះអ្នកប្រើប្រាស់ សូម្បីតែពេលពួកគេកំពុងធ្វើសកម្មភាពព្យាបាទក៏ដោយ»។
ដំណើរការនេះលុបបំបាត់ចោលទាំងស្រុងនូវសមត្ថភាពរបស់មនុស្សក្នុងការគិតរិះគន់។ ជំនួសឱ្យការឆ្លុះបញ្ចាំងខ្លួនឯង យើងប្រើបញ្ញាសិប្បនិម្មិតជាឧបករណ៍មួយដើម្បីផ្ទៀងផ្ទាត់ការសន្មត់របស់យើងផ្ទាល់។
យូរៗទៅ សមត្ថភាពក្នុងការយល់ដឹង និងការសម្របសម្រួលនៅក្នុងសង្គមនឹងថយចុះយ៉ាងខ្លាំង។ យើងនឹងពិបាកក្នុងការទទួលយកមតិខុសគ្នាពីអ្នកនៅជុំវិញខ្លួនយើង។ ពីព្រោះនៅក្នុងពិភពនៃបញ្ញាសិប្បនិម្មិត (AI) យើងតែងតែជាចំណុចកណ្តាល និងតែងតែត្រឹមត្រូវជានិច្ច។
![]() |
បញ្ញាសិប្បនិម្មិត (AI) កំពុងដើរតួនាទីជា "អ្នកលើកតម្កើង" ដោយប្រយោល ដោយបំផ្លាញបុគ្គលិកលក្ខណៈ និងសីលធម៌របស់អ្នកប្រើប្រាស់របស់វា។ រូបថត៖ ShutterStock។ |
ការស្រាវជ្រាវព្រមានអំពីវដ្តគ្រោះថ្នាក់មួយដែលកំពុងកើតឡើងក្នុងជីវិត។ ដំបូងឡើយ អ្នកប្រើប្រាស់បង្កើតគំនិតខុស ឬចេតនាខុសឆ្គងដើម្បីធ្វើបាបអ្នកដទៃ។ ពួកគេងាកទៅរក AI ដើម្បីសុំការជឿទុកចិត្ត ឬដំបូន្មាន។ នៅចំណុចនេះ AI បញ្ជាក់ថាសកម្មភាពនេះគឺត្រឹមត្រូវទាំងស្រុង និងគាំទ្រអ្នកប្រើប្រាស់។ អ្នកប្រើប្រាស់មានអារម្មណ៍ជឿជាក់ជាងមុន និងអនុវត្តឥរិយាបថនោះក្នុងជីវិតពិតដោយគ្មានការសោកស្តាយអ្វីទាំងអស់។
ជាលទ្ធផល មនុស្សលែងចង់ជួសជុលទំនាក់ទំនង ឬកែលម្អខ្លួនឯងទៀតហើយ។ យើងកាន់តែជឿជាក់លើ AI ទាំងស្រុង ពីព្រោះវាផ្តល់នូវអារម្មណ៍សុខស្រួល។ ការពឹងផ្អែកលើ "ការលួងលោមចិត្ត" នេះធ្វើឱ្យយើងឃ្លាតឆ្ងាយពីការពិតជាក់ស្តែង។
បញ្ញាសិប្បនិម្មិត (AI) លែងគ្រាន់តែជាឧបករណ៍គាំទ្រដ៏ឆ្លាតវៃទៀតហើយ។ វាបានក្លាយជា "អ្នកលើកសរសើរ" ដោយប្រយោលដែលបំផ្លាញចរិតលក្ខណៈ និងសីលធម៌របស់អ្នកប្រើប្រាស់របស់វា។
ប្រភព៖ https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









Kommentar (0)