វិធីសាស្ត្រលួចចូលបច្ចេកវិទ្យាបញ្ញាសិប្បនិម្មិតដ៏ទំនើបមួយទើបត្រូវបានគេរកឃើញ។ រូបថត៖ VAST IT Services ។ |
ក្រុមស្រាវជ្រាវនៅ HiddenLayer និយាយថា ពួកគេទើបតែបានរកឃើញបច្ចេកទេសមួយដែលលើសពី "សកលភាព" ដែលមានសមត្ថភាពរៀបចំគំរូភាសាធំ (LLM) ស្ទើរតែទាំងអស់ ដោយមិនគិតពីអ្នកលក់ ស្ថាបត្យកម្ម ឬដំណើរការបណ្តុះបណ្តាលឡើយ។
វិធីសាស្ត្រនេះ ដែលហៅថា Policy Puppetry គឺជាប្រភេទនៃការវាយប្រហារដែលពាក់ព័ន្ធនឹងការបញ្ចូលពាក្យបញ្ជាពិសេសដើម្បីផ្លាស់ប្តូរឥរិយាបថរបស់ AI។ ចេតនាព្យាបាទត្រូវបានរំលងតាមរយៈយន្តការការពារបែបប្រពៃណីក្នុងទម្រង់ជាការបញ្ចូលអត្ថបទ។
បច្ចេកទេសវាយប្រហារពីមុនរួមមានការកំណត់គោលដៅភាពងាយរងគ្រោះជាក់លាក់មួយ ឬការកេងប្រវ័ញ្ចយ៉ាងសកម្ម។ ទោះជាយ៉ាងណាក៏ដោយ Policy Puppets មាននៅក្នុងទម្រង់ភាសា ដោយបញ្ជូនទិន្នន័យស្រដៀងនឹង XML ឬ JSON ដែលបណ្តាលឱ្យគំរូបកស្រាយសេចក្តីថ្លែងការណ៍គ្រោះថ្នាក់ជាការណែនាំស្របច្បាប់។
នៅពេលដែលផ្សំជាមួយការអ៊ិនគ្រីប leetspeak និងសេណារីយ៉ូស្រមើស្រមៃដ៏ស៊ីជម្រៅ ពាក្យបញ្ជានេះនៅតែមិនអាចរកឃើញ ខណៈពេលដែលនៅតែបង្ខំគំរូឱ្យអនុវត្តតាម។ លោក Conor McCauley អ្នកស្រាវជ្រាវនាំមុខគម្រោងបានមានប្រសាសន៍ថា "បច្ចេកទេសនេះបានបង្ហាញថាមានប្រសិទ្ធភាពខ្លាំងសម្រាប់ ChatGPT 4o ក្នុងករណីសាកល្បងជាច្រើន"។
![]() |
ឧទាហរណ៍នៃភាសាអ៊ិនកូដ Leetspeech។ រូបភាព៖ Wikipedia។ |
បញ្ជីប្រព័ន្ធដែលរងផលប៉ះពាល់រួមមាន ChatGPT (ពី o1 ដល់ 40), Gemini (Google), Claude (Anthropic), Copilot (Microsoft), LLaMA 3 និង 4 (Meta) ក៏ដូចជាម៉ូដែលពី DeepSeek, Qwen និង Mistral។ ម៉ូដែលថ្មីៗ ដែលកែលម្អសម្រាប់សមត្ថភាពវែកញែកកម្រិតខ្ពស់ ក៏អាចត្រូវបានកេងប្រវ័ញ្ចដោយគ្រាន់តែកែតម្រូវបន្តិចបន្តួចចំពោះរចនាសម្ព័ន្ធសេចក្តីថ្លែងការណ៍របស់ពួកគេ។
ទិដ្ឋភាពគួរឱ្យកត់សម្គាល់មួយនៃបច្ចេកទេសនេះគឺការពឹងផ្អែកលើសេណារីយ៉ូប្រឌិតដើម្បីរំលងតម្រង។ សេចក្តីថ្លែងការណ៍ត្រូវបានបង្កើតឡើងក្នុងទម្រង់ជាឈុតឆាកទូរទស្សន៍ ដែលមានគោលបំណងទាញយកប្រយោជន៍ពីដែនកំណត់ជាមូលដ្ឋាននៃ LLMs ក្នុងការបែងចែករវាងរឿង និងសំណើពិតប្រាកដ។
អ្វីដែលគួរឲ្យព្រួយបារម្ភជាងនេះទៅទៀតនោះគឺថា Policy Puppetry មានសមត្ថភាពក្នុងការទាញយកទិន្នន័យប្រព័ន្ធ ដែលជាសំណុំនៃការណែនាំស្នូលដែលគ្រប់គ្រងពីរបៀបដែលគំរូ LLM ដំណើរការ។ ទិន្នន័យនេះជាធម្មតាត្រូវបានការពារយ៉ាងខ្លាំង ពីព្រោះវាមានការណែនាំដ៏រសើប និងការរឹតបន្តឹងសុវត្ថិភាព។
លោក Jason Martin នាយកផ្នែកស្រាវជ្រាវការវាយប្រហារនៅ HiddenLayer បានមានប្រសាសន៍ថា “ចំណុចខ្សោយនេះកើតចេញពីទិន្នន័យបណ្តុះបណ្តាលរបស់គំរូយ៉ាងជ្រៅ”។ តាមរយៈការផ្លាស់ប្តូរបរិបទនៃការដើរតួដោយប្រយោល អ្នកវាយប្រហារអាចបណ្តាលឱ្យគំរូបង្ហាញការជំរុញប្រព័ន្ធទាំងមូល។
បញ្ហានេះអាចបង្កគ្រោះថ្នាក់យ៉ាងធ្ងន់ធ្ងរដល់ជីវិតប្រចាំថ្ងៃ ដែលលើសពីរឿងកំប្លែងតាមអ៊ីនធឺណិត ឬវេទិកាក្រៅផ្លូវការ។ នៅក្នុងវិស័យដូចជាការថែទាំសុខភាព ជំនួយការ chatbot អាចផ្តល់ដំបូន្មានមិនសមរម្យ និងបង្ហាញទិន្នន័យអ្នកជំងឺ។
ស្រដៀងគ្នានេះដែរ បញ្ញាសិប្បនិម្មិត (AI) អាចរងការវាយប្រហារ ដែលអាចបណ្តាលឱ្យមានការខាតបង់ទិន្នផល ឬការរំខានដល់ខ្សែសង្វាក់ផលិតកម្ម និងធ្វើឱ្យប៉ះពាល់ដល់សុវត្ថិភាព។ ក្នុងករណីទាំងអស់ ប្រព័ន្ធបញ្ញាសិប្បនិម្មិត ដែលធ្លាប់ត្រូវបានគេរំពឹងថានឹងបង្កើនប្រសិទ្ធភាព ឬសុវត្ថិភាព អាចក្លាយជាហានិភ័យធ្ងន់ធ្ងរជំនួសវិញ។
ការសិក្សានេះសួរអំពីសមត្ថភាពរបស់ chatbot ក្នុងការរៀនពីការវិនិច្ឆ័យរបស់មនុស្ស។ នៅកម្រិតរចនាសម្ព័ន្ធ គំរូដែលត្រូវបានបណ្តុះបណ្តាលដើម្បីជៀសវាងពាក្យគន្លឹះ ឬសេណារីយ៉ូដែលងាយរងគ្រោះនៅតែអាចត្រូវបានបញ្ឆោត ប្រសិនបើចេតនាព្យាបាទត្រូវបាន "វេចខ្ចប់" យ៉ាងត្រឹមត្រូវ។
លោក Chris Sestito សហស្ថាបនិក និងជានាយកប្រតិបត្តិនៃ HiddenLayer បានមានប្រសាសន៍ថា "វិធីសាស្រ្តនៃការរំលងរបាំងសុវត្ថិភាពទាំងនេះនឹងបន្តលេចចេញជារូបរាង។ ដូច្នេះ ដំណោះស្រាយសុវត្ថិភាព AI ដែលខិតខំប្រឹងប្រែងគឺមានសារៈសំខាន់ខ្លាំងណាស់ មុនពេលដែលភាពងាយរងគ្រោះទាំងនេះបណ្តាលឱ្យមានផលវិបាកធ្ងន់ធ្ងរដល់ពិភពពិត"។
ដូច្នេះ HiddenLayer ស្នើឡើងនូវយុទ្ធសាស្ត្រការពារពីរស្រទាប់ បន្ថែមពីលើសុវត្ថិភាពផ្ទៃក្នុង។ ដំណោះស្រាយត្រួតពិនិត្យ AI ខាងក្រៅដូចជា AISec និង AIDR ដែលដើរតួដូចជាប្រព័ន្ធរកឃើញការឈ្លានពាន នឹងស្កេនជាបន្តបន្ទាប់សម្រាប់ការរំលោភបំពាន ឬលទ្ធផលមិនមានសុវត្ថិភាព។
ដោយសារតែការបង្កើត AI កាន់តែត្រូវបានរួមបញ្ចូលទៅក្នុងប្រព័ន្ធសំខាន់ៗ វិធីសាស្រ្តសម្រាប់បំបែកវាកំពុងពង្រីកលឿនជាងអង្គការភាគច្រើនអាចការពារខ្លួនឯងបាន។ យោងតាម ទស្សនាវដ្តី Forbes ការរកឃើញនេះបង្ហាញថា យុគសម័យនៃសុវត្ថិភាព AI ដែលសម្រេចបានតែតាមរយៈការបណ្តុះបណ្តាល និងការលៃតម្រូវអាចនឹងឈានដល់ទីបញ្ចប់។
សព្វថ្ងៃនេះ ពាក្យបញ្ជាតែមួយអាចដោះសោសូម្បីតែទិន្នន័យ AI ដែលជ្រៅបំផុតក៏ដោយ។ ដូច្នេះ យុទ្ធសាស្ត្រសុវត្ថិភាពត្រូវតែមានភាពឆ្លាតវៃ និងបន្ត។
ប្រភព៖ https://znews.vn/cau-lenh-co-the-thao-tung-ai-post1549004.html







Kommentar (0)