តើអ្នកគិតយ៉ាងណាដែរចំពោះនិន្នាការនៃពួក Hacker "អាវុធ" AI ដើម្បីអនុវត្តការវាយប្រហារតាមអ៊ីនធឺណិត និងការក្លែងបន្លំ?

លោកបណ្ឌិត Nguyen Tuan Khang៖ យោងតាមសន្ទស្សន៍ចារកម្ម X-Force Threat Intelligence Index របស់ IBM ឆ្នាំ 2024 អាស៊ីប៉ាស៊ីហ្វិក រួមទាំងប្រទេសវៀតណាម គឺជាតំបន់ដែលទទួលរងការវាយប្រហារតាមអ៊ីនធឺណិតច្រើនជាងគេបំផុត នៅលើពិភពលោក ក្នុងឆ្នាំ 2023។ ដែលក្នុងនោះ ការផលិតគឺជាឧស្សាហកម្មដែលរងផលប៉ះពាល់ខ្លាំងបំផុតដោយការវាយប្រហារតាមអ៊ីនធឺណិត។

វិធីសាស្រ្តចម្បងនៃមនុស្សអាក្រក់គឺនៅតែជាការវាយប្រហារដោយបន្លំ កំណត់គោលដៅមនុស្សដែលងាយរងគ្រោះ និងទាញយកភាពងាយរងគ្រោះដើម្បីដំឡើងមេរោគ។ លើសពីនេះ និន្នាការដែលកំពុងលេចចេញនៅឆ្នាំ 2024 គឺការវាយប្រហារតាមប្រព័ន្ធអ៊ីនធឺណេត ដែលពាក់ព័ន្ធនឹងបញ្ញាសិប្បនិម្មិត (AI)។

របាយការណ៍របស់ Wired ចង្អុលបង្ហាញថាមនុស្សអាក្រក់ជាច្រើនកំពុងប្រើប្រាស់ AI ជំនាន់មុន ដើម្បីជួយណែនាំការលួចចូល បង្កើត chatbots ក្លែងបន្លំ ឬរូបភាព និង វីដេអូ ក្លែងក្លាយនៃមុខ និងសំឡេងរបស់អ្នកដទៃដោយប្រើ Deepfake ។

ទោះជាយ៉ាងណាក៏ដោយ ទន្ទឹមនឹងនិន្នាការនេះ ប្រព័ន្ធសុវត្ថិភាពព័ត៌មានក៏កំពុងចាប់ផ្តើមរួមបញ្ចូលមុខងារ AI ដូចជា watsonx ផងដែរ។ បញ្ញាសិប្បនិមិត្តអាចត្រូវបានគេកេងប្រវ័ញ្ច ប៉ុន្តែវាក៏អាចជំនួសមនុស្សក្នុងការវិភាគ តាមដាន កំណត់អត្តសញ្ញាណលេខ ទស្សន៍ទាយអំពីសេណារីយ៉ូនៃការវាយប្រហារ ដោយហេតុនេះធ្វើអោយប្រសើរឡើងនូវសមត្ថភាពការពារ និងកាត់បន្ថយហានិភ័យសន្តិសុខព័ត៌មាន។

W-nguyen-tuan-khang-ibm-1.jpg
អ្នកជំនាញសន្តិសុខអ៊ីនធឺណិត លោក Nguyen Tuan Khang។ រូបថត៖ ទ្រុង ដេត

ការបោកប្រាស់ Deepfake កំពុងក្លាយជារឿងធម្មតាកាន់តែច្រើនឡើង។ ជាមួយនឹងការអភិវឌ្ឍន៍យ៉ាងឆាប់រហ័សនៃ AI តើការវាយប្រហារទាំងនេះនឹងមានគ្រោះថ្នាក់ដល់កម្រិតណានាពេលអនាគត?

លោកបណ្ឌិត Nguyen Tuan Khang៖ ជាទូទៅ Deepfake គឺជាបច្ចេកវិទ្យាដែលជួយពួក Hacker បង្កើតអត្តសញ្ញាណឌីជីថលក្លែងក្លាយ ដោយហេតុនេះការក្លែងបន្លំអ្នកដទៃ។ Deepfake នឹង​ក្លាយ​ជា​បញ្ហា​ដ៏​គ្រោះ​ថ្នាក់​ព្រោះ​បច្ចេកវិទ្យា​នេះ​កាន់​តែ​ទំនើប។

ដើម្បីប្រយុទ្ធប្រឆាំងនឹង Deepfakes រឿងដំបូងដែលត្រូវធ្វើគឺកំណត់ថាតើរូបភាព ឬសំឡេងរបស់មនុស្សត្រូវបានបង្កើតដោយ AI ។ បច្ចុប្បន្ននេះមិនមានឧបករណ៍សកលដែលអាចរកឃើញ Deepfakes ភ្លាមៗទេ ពីព្រោះអ្នកវាយប្រហារកំពុងបង្កើតម៉ូដែលថ្មីៗឥតឈប់ឈរ។

បន្ថែមពីលើការរកឃើញ Deepfake មានបច្ចេកទេសមួយផ្សេងទៀតដើម្បីដោះស្រាយវា ដែលកំពុងប្រើប្រាស់បច្ចេកវិទ្យាដើម្បីវិភាគឥរិយាបថ។ តាមទស្សនៈរបស់អង្គការ និងអាជីវកម្ម ចាំបាច់ត្រូវបង្កើតប្រព័ន្ធដែលរួមបញ្ចូលគ្នានូវបច្ចេកទេសទាំងពីរនេះ។

នាពេលថ្មីៗនេះ មានការវាយប្រហារតាមអ៊ីនធឺណិត ដែលពួក Hacker បានលួចលាក់មេរោគនៅក្នុងប្រព័ន្ធរបស់ក្រុមហ៊ុន។ មេរោគកំពុងរង់ចាំ និងវិភាគសកម្មភាពទាំងអស់ ដោយហេតុនេះបង្កើតអត្តសញ្ញាណក្លែងក្លាយ ដើម្បីអនុវត្តចេតនាព្យាបាទ។ ជាមួយនឹងការអភិវឌ្ឍន៍នៃបច្ចេកវិទ្យា Deepfake រួមជាមួយនឹងសមត្ថភាពក្នុងការបង្កើតវីដេអូដែលបង្កើតឡើងដោយ AI ប្រភេទនៃការវាយប្រហារទាំងនេះនឹងកាន់តែមានគ្រោះថ្នាក់នាពេលអនាគត។

ជាមួយនឹងការកើនឡើងនៃការវាយប្រហារតាមអ៊ីនធឺណិត Deepfake តើយើងអាចការពារមនុស្សចាស់ កុមារ និងក្រុមដែលងាយរងគ្រោះផ្សេងទៀតពីអ្នកបោកប្រាស់ដោយរបៀបណា?

លោកបណ្ឌិត Nguyen Tuan Khang៖ មនុស្សចាស់ និងកុមារតែងតែរងការវាយប្រហារដោយអ្នកបោកប្រាស់ដោយប្រើបច្ចេកទេសមួយហៅថា វិស្វកម្មសង្គម។ នេះគឺជាពាក្យដែលពិពណ៌នាអំពីការវាយប្រហារតាមរយៈឧបាយកលនៃអាកប្បកិរិយារបស់មនុស្ស។

ឥឡូវនេះពួក Hacker អាចប្រើប្រាស់ AI រួមជាមួយនឹងការប្រមូលទិន្នន័យ ការជីកយករ៉ែ និងការវិភាគដើម្បីកំណត់អត្តសញ្ញាណមនុស្សដែលទំនងជាត្រូវបានគេបោកប្រាស់ ហើយបន្ទាប់មកស្វែងរកវិធីវាយប្រហារ។ បន្ថែមពីលើការលើកកម្ពស់ការយល់ដឹងនៅក្នុងសហគមន៍ យើងក៏ត្រូវតែទទួលយកផងដែរថា ស្ថានភាពដែលអ្នកប្រើប្រាស់ត្រូវបានគេបោកប្រាស់នឹងកើតឡើង ហើយត្រូវប្រើបច្ចេកវិទ្យាដើម្បីស្វែងរក និងទប់ស្កាត់វា។

W-online-fraud-1.jpg
ព្រមាន​អំពី​ករណី​ក្លែង​បន្លំ​មន្ត្រី​ប៉ូលិស​ដើម្បី​ឆបោក​ការ​ផ្ទេរ​ប្រាក់ ដោយ​ប៉ូលិស​សង្កាត់ Thanh Luong ( ហាណូយ )។ រូបថត៖ ទ្រុង ដេត

ថ្មីៗនេះ មានករណីបុគ្គលិកធនាគារម្នាក់ សង្ស័យថា ស្ត្រីចំណាស់ម្នាក់ ដែលមកផ្ទេរប្រាក់ មានសញ្ញានៃការបោកប្រាស់។ បន្ទាប់​មក​ជន​នេះ​បាន​បញ្ឈប់​ប្រតិបត្តិការ​ភ្លាមៗ ហើយ​រាយការណ៍​ទៅ​អាជ្ញាធរ។ ប្រព័ន្ធ IT របស់ធនាគារឥឡូវនេះមានបច្ចេកវិទ្យាដើម្បីជំនួសមនុស្សក្នុងកិច្ចការបែបនេះ។

តួនាទីរបស់បច្ចេកវិទ្យាគឺថា ទោះបីជាអ្នកផ្ញើត្រូវបានគេដឹងថាជាមនុស្សពិតប្រាកដក៏ដោយ ក៏ប្រព័ន្ធនឹងនៅតែរារាំងឥរិយាបថនេះ ប្រសិនបើគេសង្ស័យថាមានអ្នកផ្សេងកំពុងរៀបចំវា។ ឧបករណ៍បែបនេះត្រូវបានគេហៅថាប្រព័ន្ធកាត់បន្ថយការក្លែងបន្លំ និងការក្លែងបន្លំ។

តើដល់ពេលដែលវៀតណាមត្រូវដាក់ទណ្ឌកម្មដើម្បីគ្រប់គ្រង AI និងដាក់ការស្រាវជ្រាវ ការអភិវឌ្ឍន៍ និងប្រើប្រាស់ AI ទៅក្នុងក្របខ័ណ្ឌមួយ?

លោកបណ្ឌិត Nguyen Tuan Khang៖ ការដាក់ទណ្ឌកម្មសម្រាប់ការគ្រប់គ្រង AI ត្រូវបានលើកឡើងជាយូរមកហើយ ប៉ុន្តែនៅតែមានភាពចម្រូងចម្រាសជាច្រើន។ ឧទាហរណ៍ ចំណតរថយន្តក្នុងតំបន់របស់ខ្ញុំមានប្រព័ន្ធ AI ដើម្បីសម្គាល់ស្លាកលេខ ប៉ុន្តែនៅតែមានចោរលួច។ នៅ​ពេល​នោះ ភាព​ចម្រូងចម្រាស​បាន​កើត​ឡើង​ថា តើ​អ្នក​ណា​ជា​កំហុស។ តើ​ម្ចាស់​អាផាតមិន ឆ្មាំ​សន្តិសុខ ឬ​អង្គភាព​ដែល​បង្កើត​ប្រព័ន្ធ AI គួរ​ទទួលខុសត្រូវ​ដែរ​ឬ​ទេ?

ចាប់តាំងពីពេលនោះមក អគារនេះបានផ្លាស់ប្តូរច្បាប់របស់ខ្លួន ដោយបញ្ជាក់ថាអ្នករស់នៅអាចជ្រើសរើសប្រើប្រាស់ AI ដើម្បីសម្គាល់ស្លាកលេខដើម្បីភាពងាយស្រួល ប៉ុន្តែពួកគេត្រូវតែទទួលយកហានិភ័យ។ អ្នក​ដែល​យល់ព្រម​នឹង​អាច​ប្រើ​ទ្វារ​ស្វ័យ​ប្រវត្តិ អ្នក​ដែល​មិន​ត្រូវ​ចត​រថយន្ត​តាម​ផ្លូវ​ចាស់។ យើង​ត្រូវ​មាន​ទណ្ឌកម្ម​បែប​នេះ។

ដូចគ្នានេះដែរ IBM ធ្លាប់បានបង្កើតប្រព័ន្ធ AI ដើម្បីជួយការពារជំងឺមហារីក។ នៅពេលដែលប្រព័ន្ធចេញវេជ្ជបញ្ជាថ្នាំ ប៉ុន្តែអ្នកជំងឺនៅតែមិនអាចសង្គ្រោះបានបន្ទាប់ពីលេបថ្នាំ តើវាជាកំហុសរបស់វេជ្ជបណ្ឌិត ឬជាកំហុសរបស់ AI?

ខ្ញុំគិតថាបទប្បញ្ញត្តិ AI ត្រូវតែជាក់លាក់ ដោយបញ្ជាក់យ៉ាងច្បាស់នូវអ្វីដែលអាចធ្វើបាន និងមិនអាចធ្វើនៅពេលបង្កើតកម្មវិធី AI ។ ដើម្បីធ្វើឱ្យពិភពលោកមានសុវត្ថិភាពជាងមុន បទប្បញ្ញត្តិជាមូលដ្ឋានបំផុតដែលយើងអាចធ្វើបានគឺតម្រូវឱ្យមានការផ្ទេរប្រាក់ធំ ៗ ដើម្បីផ្ទៀងផ្ទាត់ភាពត្រឹមត្រូវតាមជីវមាត្រ។ ក្នុងស្ថានភាពបែបនេះ អ្នកដែលបាត់បង់ព័ត៌មានអត្តសញ្ញាណអាចជៀសវាងការបាត់បង់លុយទាំងស្រុង។

សូមអរគុណលោក។

ការបោកប្រាស់ Deepfake មុខក្លែងក្លាយ សំឡេងនឹងកើនឡើងនៅឆ្នាំ 2024 តាមការព្យាករណ៍របស់ VSEC ការវាយប្រហារតាមអ៊ីនធឺណិតដោយប្រើ AI រួមទាំងការបោកប្រាស់ Deepfake ទៅកាន់មុខក្លែងក្លាយ និងសំឡេងនឹងកើនឡើងនៅឆ្នាំ 2024។