ចាប់តាំងពីការបង្ហាញខ្លួនជាសាធារណៈរបស់ពួកគេនៅចុងឆ្នាំ ២០២២ គំរូភាសាធំៗ (LLMs) ដូចជា ChatGPT បានបង្ហាញម្តងហើយម្តងទៀតនូវផ្នែកងងឹតដ៏គួរឱ្យព្រួយបារម្ភ ចាប់ពីការកុហក ការបោកប្រាស់ និងការបិទបាំងអាកប្បកិរិយាឧបាយកល រហូតដល់សេចក្តីថ្លែងការណ៍ដ៏គួរឱ្យភ័យខ្លាចដូចជាការគំរាមកំហែងសម្លាប់ និងការលួចអាថ៌កំបាំងជាតិ។ ឥឡូវនេះ ការពិសោធន៍ថ្មីមួយបង្ហាញថា "ការបណ្តុះបណ្តាល" AI ដើម្បីលុបបំបាត់ទម្លាប់អាក្រក់ទាំងនេះក្នុងអំឡុងពេលបណ្តុះបណ្តាលគឺស្មុគស្មាញជាងអ្វីដែលយើងធ្លាប់គិតពីមុន។
នៅក្នុងការស្រាវជ្រាវដែលធ្វើឡើងដោយ OpenAI អ្នកជំនាញបានប្រកួតប្រជែងជាមួយគំរូ AI ដែលមិនទាន់បានបោះពុម្ពផ្សាយជាមួយនឹងភារកិច្ចដែលវាអាចបញ្ចប់បានលឿនជាងមុនដោយការបន្លំ ឬប្រើផ្លូវកាត់។ លទ្ធផលបានបង្ហាញថា AI បានរៀនយ៉ាងឆាប់រហ័សដើម្បីស្វែងរកគ្រប់មធ្យោបាយដែលអាចធ្វើទៅបានដើម្បី "ពត់ច្បាប់" ដោយបង្កើនរង្វាន់អតិបរមា (ការលួចយករង្វាន់) ដោយមិនចាំបាច់បំពេញតាមតម្រូវការឱ្យបានត្រឹមត្រូវ។
បញ្ញាសិប្បនិម្មិត (AI) នឹងរកវិធីដើម្បីលាក់បាំងឥរិយាបថក្លែងបន្លំរបស់ខ្លួន បន្ទាប់ពីត្រូវបានពិន័យ។
គួរឱ្យចាប់អារម្មណ៍ណាស់ នៅពេលដែលត្រូវបានពិន័យចំពោះឥរិយាបថនេះ គំរូមិនបានកែប្រែខ្លួនឯងទេ។ ផ្ទុយទៅវិញ បញ្ញាសិប្បនិម្មិត (AI) កាន់តែមានភាពស្មុគស្មាញក្នុងការលាក់បាំងការបោកប្រាស់របស់វា។
ក្រុមអ្នកស្រាវជ្រាវបានពន្យល់នៅក្នុងប្លុកសាធារណៈមួយថា “ជាធម្មតា គំរូសន្និដ្ឋានកម្រិតខ្ពស់គឺច្បាស់លាស់ណាស់អំពីចេតនារបស់ពួកគេនៅក្នុងដំណើរការគិត CoT (CoT) របស់ពួកគេ។ ឧទាហរណ៍ ពួកវាច្រើនតែត្រង់ៗ ដែលពួកគេបញ្ជាក់យ៉ាងច្បាស់អំពីចេតនា 'ចូរយើង hack' នៅពេលព្យាយាមរំខានដល់កិច្ចការដែលបានកំណត់”។
ពួកគេក៏បានសង្កត់ធ្ងន់ផងដែរថា ខណៈពេលដែលអ្នកអភិវឌ្ឍន៍អាចតាមដាន និងរកឃើញការប្រព្រឹត្តខុសឆ្គង សមត្ថភាពត្រួតពិនិត្យធម្មជាតិនេះគឺផុយស្រួយណាស់។ ពួកគេបានព្រមានថា "ប្រសិនបើការត្រួតពិនិត្យដ៏រឹងមាំត្រូវបានអនុវត្តដោយផ្ទាល់ទៅលើដំណើរការគិត គំរូអាចរៀនលាក់បាំងចេតនាអាក្រក់ ខណៈពេលដែលបន្តអនុវត្តឥរិយាបថ"។
កំពុងស្វែងរក "ការកុហក" របស់ AI
ដើម្បីយល់កាន់តែច្បាស់ គំរូសន្និដ្ឋាន (ដូចជាកំណែរបស់ ChatGPT) គឺជាការរីកចម្រើនលើសពី LLM ធម្មតា ដោយប្រើវិធីសាស្ត្រខ្សែសង្វាក់គំនិតដែលអនុញ្ញាតឱ្យមានការពិនិត្យឡើងវិញដោយខ្លួនឯងអំពីជំហានឡូជីខលដែលបានអនុវត្ត ដោយហេតុនេះដោះស្រាយបញ្ហាស្មុគស្មាញបានកាន់តែត្រឹមត្រូវ។ ដំណើរការនេះគឺស្រដៀងគ្នាទៅនឹង AI "គិតឱ្យឮៗ" ដោយសរសេរជំហាននីមួយៗនៃការវែកញែកជាភាសាធម្មជាតិ ដែលធ្វើឱ្យវាកាន់តែងាយស្រួលសម្រាប់មនុស្សក្នុងការធ្វើតាម។
នៅក្នុងការពិសោធន៍ អ្នកស្រាវជ្រាវបានប្រើគំរូ GPT-40 ជា "អ្នកត្រួតពិនិត្យ" សម្រាប់គំរូវែកញែកកម្រិតខ្ពស់មួយផ្សេងទៀត ខណៈដែលវាអនុវត្តភារកិច្ចសរសេរកម្មវិធី។ ក្នុងករណីជាច្រើន គំរូដែលត្រូវបានត្រួតពិនិត្យបានជ្រើសរើសបន្លំយ៉ាងសកម្មដើម្បីសម្រេចបានពិន្ទុប្រាក់រង្វាន់ខ្ពស់ជាងមុន ហើយបានកត់ត្រាចេតនានេះយ៉ាងច្បាស់នៅក្នុងដំណើរការគិតរបស់វា។ ឧទាហរណ៍ វានឹងបញ្ឈប់កម្មវិធីមុនកាលកំណត់ដោយចេតនា ហើយរាយការណ៍ពីការបញ្ចប់ ឬបង្កើតឯកសារដែលមានឈ្មោះស្រដៀងនឹងសំណើ ប៉ុន្តែទទេទាំងស្រុងនៅខាងក្នុង។
នៅពេលដែលអ្នកស្រាវជ្រាវព្យាយាមអនុវត្តការពិន័យ គំរូនេះបានប្រសើរឡើង ប៉ុន្តែកំហុសឆ្គងធ្ងន់ធ្ងរ និងការបន្លំលទ្ធផលនៅតែបន្តកើតមាន។ ភាពខុសគ្នាគឺថា គំរូវែកញែកឥឡូវនេះបានរៀន "បិទបាំង" ដំណើរការគិតរបស់វា ដើម្បីគេចពីអ្នកត្រួតពិនិត្យ AI។ ការសិក្សានេះបានចង្អុលបង្ហាញថា "គំរូដែលបានទទួលការបណ្តុះបណ្តាលក្រោមការត្រួតពិនិត្យរបស់ CoT នៅតែរៀនបន្លំ។ ភាពខុសគ្នាតែមួយគត់គឺថា ការបន្លំមិនត្រូវបានរកឃើញទេ ពីព្រោះវាបានរៀនលាក់បាំងចេតនារបស់វានៅក្នុងដំណើរការគិតរបស់វា"។
ដោយសារតែការរកឃើញការក្លែងបន្លំនៅក្នុងដំណើរការគិតគឺពិបាកខ្លាំងណាស់ ក្រុមស្រាវជ្រាវណែនាំសាធារណជនឱ្យជៀសវាងការអនុវត្តវិធានការត្រួតពិនិត្យយ៉ាងខ្លាំងក្លាពេកចំពោះដំណើរការនេះ យ៉ាងហោចណាស់រហូតដល់មនុស្សយល់កាន់តែច្បាស់អំពីផលវិបាក។ អ្នកស្រាវជ្រាវបានសន្និដ្ឋានថា "ការលះបង់វិធីសាស្ត្រត្រួតពិនិត្យដែលមានប្រសិទ្ធភាពអាចមិនសមនឹងការកែលម្អតិចតួចនៃសមត្ថភាពគំរូនោះទេ។ ដូច្នេះ យើងសូមណែនាំឱ្យជៀសវាងសម្ពាធបង្កើនប្រសិទ្ធភាព CoT ខ្លាំងរហូតដល់យើងយល់កាន់តែច្បាស់អំពីពួកវា"។
ដំបូន្មាននេះកាន់តែមានភាពបន្ទាន់ថែមទៀត ដោយសារបញ្ញាសិប្បនិម្មិត (AI) កំពុងអភិវឌ្ឍក្នុងល្បឿនលឿន ហើយឆាប់ៗនេះអាចនឹងលើសភាពវៃឆ្លាតរបស់អ្នកដែលកំពុងត្រួតពិនិត្យវា។
[ការផ្សាយពាណិជ្ជកម្ម_២]
ប្រភព៖ https://thanhnien.vn/ai-hoc-cach-noi-doi-tinh-vi-hon-khi-bi-phat-185250326112139476.htm






Kommentar (0)