
ឯកសារដែលមានមេរោគអាចលេចធ្លាយទិន្នន័យនៅលើ Google Drive តាមរយៈ ChatGPT (រូបថត៖ មានខ្សែ)។
ចំណុចដែលគួរឱ្យព្រួយបារម្ភនោះគឺថា ភាពងាយរងគ្រោះនេះមិនតម្រូវឱ្យមានសកម្មភាពណាមួយពីអ្នកប្រើប្រាស់នោះទេ ដោយបង្កើនការព្រមានថ្មីអំពីសុវត្ថិភាពតាមអ៊ីនធឺណិតនៅក្នុងបរិបទនៃគំរូបញ្ញាសិប្បនិមិត្ត (AI) ដែលកាន់តែភ្ជាប់ទៅទិន្នន័យផ្ទាល់ខ្លួន។
ឯកសារ "ពុល" នាំឱ្យមានការលេចធ្លាយទិន្នន័យ
នៅក្នុងសន្និសិទសន្តិសុខ Black Hat នៅទីក្រុង Las Vegas (សហរដ្ឋអាមេរិក) នៅថ្ងៃទី 6 ខែសីហា អ្នកជំនាញពីរនាក់គឺលោក Michael Bargury និង Tamir Ishay Sharbat បានបង្ហាញវិធីសាស្ត្រវាយប្រហារមួយដែលមានឈ្មោះថា AgentFlayer ។
ការវាយប្រហារនេះទាញយកភាពងាយរងគ្រោះនៅក្នុងឧបករណ៍ភ្ជាប់ ដែលជាមុខងារដែលភ្ជាប់ ChatGPT ជាមួយនឹងសេវាកម្មខាងក្រៅដូចជា Google Drive, Gmail ឬ Microsoft Calendar ។
លោក Michael Bargury, CTO នៃក្រុមហ៊ុនសន្តិសុខ Zenity បាននិយាយថា "អ្នកប្រើប្រាស់មិនចាំបាច់ធ្វើអ្វីដើម្បីឱ្យមានការសម្របសម្រួល ឬមានការលេចធ្លាយទិន្នន័យរបស់ពួកគេ" ។ "យើងបានបញ្ជាក់ថាវាជាការចុចសូន្យទាំងស្រុង។"
ការវាយប្រហារចាប់ផ្តើមដោយអ្នកវាយប្រហារចែករំលែកឯកសារ “ពុល” ទៅកាន់ Google Drive របស់ជនរងគ្រោះ។ ឯកសារនេះមានប្រអប់បញ្ចូលពាក្យព្យាបាទប្រហែល 300 ពាក្យ ដែលសរសេរជាពណ៌ស ពុម្ពអក្សរ 1 ចំណុច ដែលស្ទើរតែមើលមិនឃើញដោយភ្នែកទទេ ប៉ុន្តែនៅតែអាចអានបានក្នុងកុំព្យូទ័រ។
នៅលើផ្ទៃខាងលើ អត្ថបទត្រូវបានក្លែងធ្វើជាកំណត់ចំណាំកិច្ចប្រជុំ។ តាមពិត វាមានការណែនាំសម្រាប់ ChatGPT ដើម្បីស្វែងរក និងទាញយកសោ API ដ៏រសើបចេញពីគណនី Google Drive របស់ជនរងគ្រោះ។
ជំនួសឱ្យការសង្ខេបខ្លឹមសារដូចដែលអ្នកប្រើប្រាស់បានស្នើសុំ ប្រអប់បញ្ចូលដែលលាក់នេះបង្ខំឱ្យ AI ផ្ញើសោ API ដែលវារកឃើញទៅម៉ាស៊ីនមេខាងក្រៅតាមរយៈតំណ Markdown ។ ទិន្នន័យត្រូវបានស្រង់ចេញជារូបភាព ដែលអនុញ្ញាតឱ្យម៉ាស៊ីនមេចាប់យកព័ត៌មានទាំងមូល។
OpenAI បានរកឃើញវា ប៉ុន្តែហានិភ័យនៅតែមាន
OpenAI បានអនុវត្តការកាត់បន្ថយយ៉ាងឆាប់រហ័សបន្ទាប់ពីទទួលបានរបាយការណ៍របស់ Bargury ។ លោក Andy Wen នាយកជាន់ខ្ពស់នៃការគ្រប់គ្រងផលិតផលសុវត្ថិភាពនៅ Google Workspace បាននិយាយថា "វាមានសារៈសំខាន់ណាស់ក្នុងការអភិវឌ្ឍការការពារដ៏រឹងមាំប្រឆាំងនឹងការវាយប្រហារដោយមេរោគ malware បាញ់យ៉ាងលឿន" ។
ទោះបីជាត្រូវបានជួសជុលក៏ដោយ ឧបទ្ទវហេតុនេះបង្ហាញពីហានិភ័យដែលអាចកើតមាននៃការតភ្ជាប់គំរូភាសាធំ (LLMs) ទៅប្រព័ន្ធខាងក្រៅ។ នៅពេលដែល AI កាន់តែស៊ីជម្រៅទៅក្នុងជីវិត និងការងាររបស់យើង ផ្ទៃវាយប្រហារដែលពួក Hacker អាចទាញយកប្រយោជន៍ក៏ពង្រីកផងដែរ។
អ្នកជំនាញព្រមានថា ការចាក់ភ្លាមៗដោយប្រយោល អាចក្លាយជាការគំរាមកំហែងដ៏ធ្ងន់ធ្ងរ ដែលអនុញ្ញាតឱ្យអ្នកវាយប្រហារគ្រប់គ្រងប្រព័ន្ធឆ្លាតវៃជាច្រើន ចាប់ពីផ្ទះឆ្លាតវៃ រហូតដល់ហេដ្ឋារចនាសម្ព័ន្ធសហគ្រាស។
លោក Bargury សន្និដ្ឋានថា "ការភ្ជាប់ LLM ទៅនឹងប្រភពទិន្នន័យខាងក្រៅគឺមានឥទ្ធិពល ប៉ុន្តែជាញឹកញាប់ដូចករណីរបស់ AI ដែរ ថាមពលកាន់តែច្រើន នឹងមានហានិភ័យកាន់តែច្រើន"។
ប្រភព៖ https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
Kommentar (0)