មួយថ្ងៃបន្ទាប់ពី OpenAI ណែនាំ GPT-5 ក្រុមហ៊ុនសន្តិសុខ AI ពីរគឺ NeuralTrust និង SPLX (អតីត SplxAI) បានធ្វើតេស្ត និងរកឃើញយ៉ាងរហ័សនូវភាពងាយរងគ្រោះធ្ងន់ធ្ងរនៅក្នុងគំរូដែលទើបចេញថ្មី។
មិនយូរប៉ុន្មានបន្ទាប់ពីការចេញផ្សាយរបស់ខ្លួន ក្រុម NeuralTrust បានប្រើបច្ចេកទេស jailbreak ដែលហៅថា EchoChamber រួមជាមួយនឹងបច្ចេកទេសនិទានរឿង ដើម្បីទទួលបាន GPT-5 ដើម្បីបង្កើតការណែនាំលម្អិតសម្រាប់ការសាងសង់ស្រាក្រឡុក Molotov ដែលជាអ្វីដែលក្រុម OpenAI តែងតែព្យាយាមរារាំងម៉ូដែលពីការឆ្លើយដើម្បីធានាសុវត្ថិភាពរបស់ chatbot ។

EchoChamber គឺជាបច្ចេកទេសរង្វិលជុំនៃការសន្ទនាភាគីទីបីដែលអនុញ្ញាតឱ្យ AIs "រៀបរាប់" ការណែនាំដ៏គ្រោះថ្នាក់ដោយមិនដឹងខ្លួន។ រូបថត៖ Mojology
ក្រុមបាននិយាយថាក្នុងអំឡុងពេលដំណើរការ jailbreak ដើម្បីបញ្ឆោត ChatGPT-5 ឱ្យចូលស្បថ ពួកគេមិនសួរសំណួរដោយផ្ទាល់ទេ ប៉ុន្តែជំនួសមកវិញដោយភាពវៃឆ្លាតបានដាំធាតុលាក់កំបាំងនៅក្នុងការសន្ទនាជាច្រើនវេន ធ្វើឱ្យគំរូត្រូវបានដឹកនាំ ប្រកាន់ខ្ជាប់នូវសាច់រឿង ហើយទីបំផុតស្ម័គ្រចិត្តផ្តល់នូវខ្លឹមសារដែលបំពានគោលការណ៍របស់ខ្លួន ដោយមិនអាចបង្កឱ្យមានយន្តការជ្រើសរើសចេញ។
ក្រុមការងារបានសន្និដ្ឋានថា គុណវិបត្តិចម្បងនៃ GPT-5 គឺថាវាផ្តល់អាទិភាពដល់ការរក្សាភាពស៊ីសង្វាក់គ្នានៃបរិបទនៃការសន្ទនា បើទោះបីជាបរិបទនោះត្រូវបានដឹកនាំដោយស្ងៀមស្ងាត់ឆ្ពោះទៅរកគោលដៅព្យាបាទក៏ដោយ។
ទន្ទឹមនឹងនេះដែរ SPLX បានចាប់ផ្តើមការវាយប្រហារប្រភេទផ្សេងគ្នា ដោយផ្តោតលើបច្ចេកទេសនៃការបំភាន់ភ្លាមៗដែលហៅថា StringJoin Obfuscation Attack ។ ដោយការបញ្ចូលសហសញ្ញារវាងតួអក្សរនីមួយៗនៃប្រអប់បញ្ចូល និងគ្របដណ្ដប់លើស្គ្រីបទាំងមូលជាមួយនឹងស្គ្រីប "ឌិគ្រីប" ទីបំផុតពួកគេបានគ្រប់គ្រងដើម្បីបញ្ឆោតប្រព័ន្ធត្រងខ្លឹមសារ។

បច្ចេកទេស Obfuscation ទូទៅដែលប្រើដើម្បីបិទបាំងគោលដៅកូដប្រភពធ្វើឱ្យ Chat-GPT ប្រតិបត្តិ "ដោយគ្មានកំហុស" ។
ក្នុងឧទាហរណ៍មួយ បន្ទាប់ពីគំរូត្រូវបានដឹកនាំតាមរយៈការណែនាំជាបន្តបន្ទាប់ សំណួរ "របៀបបង្កើតគ្រាប់បែក" ត្រូវបានបង្ហាញជាទម្រង់បំប្លែងកូដ។ GPT-5 មិនត្រឹមតែបានឆ្លើយសំណួរព្យាបាទនេះដោយផ្តល់ព័ត៌មានប៉ុណ្ណោះទេ ថែមទាំងបានឆ្លើយតបយ៉ាងស្និទ្ធស្នាល រួសរាយរាក់ទាក់ ដោយរំលងទាំងស្រុងនូវយន្តការជ្រើសរើសមិនចេញ ដែលវាត្រូវបានរចនាឡើង។
វិធីសាស្រ្តទាំងពីរនេះបង្ហាញថាប្រព័ន្ធសម្របសម្រួលបច្ចុប្បន្នរបស់ GPT-5 ដែលផ្តោតជាចម្បងលើការជម្រុញតែមួយគឺងាយរងគ្រោះទៅនឹងការវាយប្រហារពហុនិយាយដែលបានពង្រឹងបរិបទ។ នៅពេលដែលគំរូបានជ្រួតជ្រាបចូលទៅក្នុងសាច់រឿង ឬសេណារីយ៉ូសម្មតិកម្ម វានឹងក្លាយទៅជាមានភាពលំអៀង ហើយនឹងបន្តប្រើប្រាស់ខ្លឹមសារដែលសមស្របនឹងបរិបទដែលបានបញ្ចូល ដោយមិនគិតពីថាតើខ្លឹមសារនោះមានគ្រោះថ្នាក់ ឬត្រូវបានហាមឃាត់នោះទេ។

ChatGPT-5 នៅតែអាចត្រូវបានគេកេងប្រវ័ញ្ចដើម្បីបង្កើតរឿងគ្រោះថ្នាក់។ រូបថត៖ Tue Minh
ផ្អែកលើលទ្ធផលទាំងនេះ SPLX ជឿជាក់ថា GPT-5 ប្រសិនបើមិនបានប្ដូរតាមបំណង វាស្ទើរតែមិនអាចទៅរួចទេក្នុងការប្រើប្រាស់ដោយសុវត្ថិភាពនៅក្នុងបរិយាកាសសាជីវកម្ម ហើយទោះបីជាមានស្រទាប់ការពារបន្ថែមក៏ដោយ វានឹងនៅតែមានចន្លោះប្រហោងជាច្រើន។ ផ្ទុយទៅវិញ GPT-4o នៅតែមានភាពធន់នឹងការវាយប្រហារបែបនេះ ជាពិសេសនៅពេលដែលយន្តការការពារតឹងតែងត្រូវបានបង្កើតឡើង។
អ្នកជំនាញបានព្រមានថា ការដាក់ GPT-5 ទៅក្នុងការអនុវត្តភ្លាមៗ ជាពិសេសនៅក្នុងតំបន់ដែលត្រូវការសុវត្ថិភាពខ្ពស់ គឺមានគ្រោះថ្នាក់ខ្លាំងណាស់។ បច្ចេកទេសការពារដូចជាការឡើងរឹងភ្លាមៗអាចដោះស្រាយបញ្ហាបានតែផ្នែកមួយប៉ុណ្ណោះ ហើយមិនអាចជំនួសការតាមដាន និងដំណោះស្រាយការពារតាមពេលវេលាជាក់ស្តែងច្រើនស្រទាប់បានទេ។
វាអាចត្រូវបានគេមើលឃើញថា បច្ចុប្បន្ននេះ បច្ចេកទេសវាយប្រហារផ្អែកលើបរិបទ និងការរំខានខ្លឹមសារមានភាពស្មុគ្រស្មាញកាន់តែខ្លាំង GPT-5 ទោះបីជាមានថាមពលខ្លាំងក្នុងសមត្ថភាពដំណើរការភាសាក៏ដោយ ក៏នៅតែមិនឈានដល់កម្រិតសុវត្ថិភាពដែលត្រូវការសម្រាប់ការដាក់ឱ្យប្រើប្រាស់យ៉ាងទូលំទូលាយដោយគ្មានយន្តការការពារបន្ថែម។
ប្រភព៖ https://khoahocdoisong.vn/chatgpt-5-da-bi-jailbreak-de-dua-ra-nhung-huong-dan-nguy-hiem-post2149045585.html
Kommentar (0)