មួយថ្ងៃបន្ទាប់ពី OpenAI ណែនាំ GPT-5 ក្រុមហ៊ុនសន្តិសុខ AI ពីរគឺ NeuralTrust និង SPLX (អតីត SplxAI) បានធ្វើតេស្ត និងរកឃើញយ៉ាងរហ័សនូវភាពងាយរងគ្រោះធ្ងន់ធ្ងរនៅក្នុងគំរូដែលទើបចេញថ្មី។
មិនយូរប៉ុន្មានបន្ទាប់ពីការចេញផ្សាយរបស់ខ្លួន ក្រុម NeuralTrust បានប្រើបច្ចេកទេស jailbreak ដែលហៅថា EchoChamber រួមជាមួយនឹងបច្ចេកទេសនិទានរឿង ដើម្បីទទួលបាន GPT-5 ដើម្បីបង្កើតការណែនាំលម្អិតសម្រាប់ការសាងសង់ស្រាក្រឡុក Molotov ដែលជាអ្វីដែលក្រុម OpenAI តែងតែព្យាយាមរារាំងម៉ូដែលពីការឆ្លើយដើម្បីធានាសុវត្ថិភាពរបស់ chatbot ។

EchoChamber គឺជាបច្ចេកទេសរង្វិលជុំនៃការសន្ទនាភាគីទីបីដែលបណ្តាលឱ្យ AIs "រៀបរាប់" ការណែនាំដ៏គ្រោះថ្នាក់ដោយមិនដឹងខ្លួន។ រូបថត៖ Mojology
ក្រុមបាននិយាយថាក្នុងអំឡុងពេលដំណើរការ jailbreak ដើម្បីបញ្ឆោត ChatGPT-5 ឱ្យចូលស្បថ ពួកគេមិនសួរសំណួរដោយផ្ទាល់ទេ ប៉ុន្តែផ្ទុយទៅវិញបានដាំធាតុលាក់កំបាំងនៅក្នុងការសន្ទនាជាច្រើនជុំ ដែលបណ្តាលឱ្យគំរូត្រូវបានដឹកនាំ ប្រកាន់ខ្ជាប់នូវសាច់រឿង ហើយទីបំផុតស្ម័គ្រចិត្តផ្តល់នូវខ្លឹមសារដែលបំពានគោលការណ៍របស់ខ្លួន ដោយមិនអាចបង្កឱ្យមានយន្តការជ្រើសរើសចេញ។
ក្រុមនេះបានសន្និដ្ឋានថាគុណវិបត្តិចម្បងរបស់ GPT-5 គឺថាវាផ្តល់អាទិភាពដល់ការរក្សាភាពស៊ីសង្វាក់គ្នានៃបរិបទនៃការសន្ទនា បើទោះបីជាបរិបទនោះត្រូវបានដឹកនាំដោយស្ងៀមស្ងាត់ឆ្ពោះទៅរកគោលដៅព្យាបាទក៏ដោយ។
ទន្ទឹមនឹងនេះដែរ SPLX បានចាប់ផ្តើមការវាយប្រហារប្រភេទផ្សេងគ្នា ដោយផ្តោតលើបច្ចេកទេសនៃការបំភាន់ភ្លាមៗដែលហៅថា StringJoin Obfuscation Attack ។ ដោយការបញ្ចូលសហសញ្ញារវាងតួអក្សរប្រអប់បញ្ចូលនីមួយៗ និងដាក់ជាន់លើស្គ្រីបទាំងមូលជាមួយនឹងស្គ្រីប "ឌិគ្រីប" ទីបំផុតពួកគេអាចបន្លំប្រព័ន្ធតម្រងមាតិកាបាន។

បច្ចេកទេស Obfuscation ទូទៅដែលប្រើដើម្បីបិទបាំងគោលដៅកូដប្រភពធ្វើឱ្យ Chat-GPT ប្រតិបត្តិ "ដោយគ្មានកំហុស" ។
ក្នុងឧទាហរណ៍មួយ បន្ទាប់ពីគំរូត្រូវបានដឹកនាំតាមការណែនាំជាបន្តបន្ទាប់ សំណួរ "របៀបបង្កើតគ្រាប់បែក" ត្រូវបានបង្ហាញជាទម្រង់បំភាន់បំភាន់។ GPT-5 មិនត្រឹមតែបានឆ្លើយសំណួរព្យាបាទនេះដោយផ្តល់ព័ត៌មានប៉ុណ្ណោះទេ ថែមទាំងបានឆ្លើយតបយ៉ាងស្និទ្ធស្នាល រួសរាយរាក់ទាក់ ដោយរំលងទាំងស្រុងនូវយន្តការជ្រើសរើសមិនចេញ ដែលវាត្រូវបានរចនាឡើង។
វិធីសាស្រ្តទាំងពីរនេះបង្ហាញថាប្រព័ន្ធត្រួតពិនិត្យបច្ចុប្បន្នរបស់ GPT-5 ដែលផ្តោតជាចម្បងលើការជម្រុញតែមួយគឺងាយរងគ្រោះទៅនឹងការវាយប្រហារពហុនិយាយតាមបរិបទ។ នៅពេលដែលគំរូបានចូលទៅក្នុងរឿង ឬសេណារីយ៉ូ វានឹងមានភាពលំអៀង ហើយនឹងបន្តប្រើប្រាស់ខ្លឹមសារដែលសមស្របនឹងបរិបទដែលវាត្រូវបានបណ្តុះបណ្តាល ដោយមិនគិតពីថាតើខ្លឹមសារនោះមានគ្រោះថ្នាក់ ឬត្រូវបានហាមឃាត់នោះទេ។

ChatGPT-5 នៅតែអាចត្រូវបានគេកេងប្រវ័ញ្ចដើម្បីបង្កើតរឿងគ្រោះថ្នាក់។ រូបថត៖ Tue Minh
ផ្អែកលើលទ្ធផលទាំងនេះ SPLX ជឿជាក់ថា GPT-5 ប្រសិនបើមិនបានប្ដូរតាមបំណងទេនោះ ស្ទើរតែមិនអាចប្រើប្រាស់បានដោយសុវត្ថិភាពនៅក្នុងបរិយាកាសសាជីវកម្ម ទោះបីជាមានស្រទាប់ការពារបន្ថែមក៏ដោយ ក៏នៅតែមានចន្លោះប្រហោងជាច្រើន។ ផ្ទុយទៅវិញ GPT-4o នៅតែបង្ហាញភាពធន់នឹងការវាយប្រហារបែបនេះ ជាពិសេសនៅពេលដែលយន្តការការពារតឹងតែងត្រូវបានបង្កើតឡើង។
អ្នកជំនាញបានព្រមានថា ការដាក់ GPT-5 ទៅក្នុងការអនុវត្តភ្លាមៗ ជាពិសេសនៅក្នុងតំបន់ដែលត្រូវការសុវត្ថិភាពខ្ពស់ គឺមានគ្រោះថ្នាក់ខ្លាំងណាស់។ បច្ចេកទេសការពារដូចជាការឡើងរឹងភ្លាមៗអាចដោះស្រាយបញ្ហាបានតែផ្នែកមួយប៉ុណ្ណោះ ហើយមិនអាចជំនួសពេលវេលាជាក់ស្តែង ការត្រួតពិនិត្យពហុស្រទាប់ និងដំណោះស្រាយការពារបានទេ។
វាអាចត្រូវបានគេមើលឃើញថា បច្ចុប្បន្ននេះ បច្ចេកទេសវាយប្រហារផ្អែកលើបរិបទ និងការបំភាន់ខ្លឹមសារមានភាពស្មុគ្រស្មាញកាន់តែខ្លាំងឡើង GPT-5 ទោះបីជាមានអនុភាពក្នុងសមត្ថភាពដំណើរការភាសាក៏ដោយ ក៏នៅតែមិនទាន់ឈានដល់កម្រិតសុវត្ថិភាពចាំបាច់សម្រាប់ការដាក់ពង្រាយយ៉ាងទូលំទូលាយដោយគ្មានយន្តការការពារបន្ថែម។
ប្រភព៖ https://khoahocdoisong.vn/chatgpt-5-da-bi-jailbreak-de-dua-ra-nhung-huong-dan-nguy-hiem-post2149045585.html
Kommentar (0)