តើអ្នកគិតយ៉ាងណាដែរចំពោះនិន្នាការនៃពួក Hacker "អាវុធ" AI ដើម្បីអនុវត្តការវាយប្រហារតាមអ៊ីនធឺណិត និងការក្លែងបន្លំ?
បណ្ឌិត Nguyen Tuan Khang៖ យោងតាមសន្ទស្សន៍ចារកម្ម X-Force Threat Intelligence Index របស់ IBM ឆ្នាំ 2024 អាស៊ី ប៉ាស៊ីហ្វិក រួមទាំងវៀតណាម គឺជាតំបន់ដែលនឹងទទួលរងការវាយប្រហារតាមអ៊ីនធឺណិតច្រើនជាងគេបំផុតនៅលើពិភពលោកក្នុងឆ្នាំ 2023។ ដែលក្នុងនោះ ការផលិតគឺជាឧស្សាហកម្មដែលរងផលប៉ះពាល់ខ្លាំងបំផុតដោយការវាយប្រហារតាមអ៊ីនធឺណិត។
វិធីសាស្រ្តចម្បងនៃមនុស្សអាក្រក់គឺនៅតែជាការវាយប្រហារដោយបន្លំ កំណត់គោលដៅមនុស្សដែលងាយរងគ្រោះ និងទាញយកភាពងាយរងគ្រោះដើម្បីដំឡើងមេរោគ។ លើសពីនេះ និន្នាការដែលកំពុងលេចចេញនៅឆ្នាំ 2024 គឺការវាយប្រហារតាមប្រព័ន្ធអ៊ីនធឺណេត ដែលពាក់ព័ន្ធនឹងបញ្ញាសិប្បនិម្មិត (AI)។
របាយការណ៍របស់ Wired ចង្អុលបង្ហាញថាមនុស្សអាក្រក់ជាច្រើនកំពុងប្រើប្រាស់ AI ជំនាន់មុន ដើម្បីជួយណែនាំការលួចចូល បង្កើត chatbots ក្លែងបន្លំ ឬបង្កើតរូបភាព និង វីដេអូ Deepfake ដែលធ្វើត្រាប់តាមមុខ និងសំឡេងរបស់អ្នកដទៃ។
ទោះជាយ៉ាងណាក៏ដោយ ទន្ទឹមនឹងនិន្នាការនេះ ប្រព័ន្ធសុវត្ថិភាពព័ត៌មានក៏កំពុងចាប់ផ្តើមរួមបញ្ចូលមុខងារ AI ដូចជា watsonx ផងដែរ។ បញ្ញាសិប្បនិម្មិតអាចត្រូវបានគេកេងប្រវ័ញ្ច ប៉ុន្តែក៏អាចជំនួសមនុស្សក្នុងការវិភាគ តាមដាន កំណត់អត្តសញ្ញាណលេខ ទស្សន៍ទាយអំពីសេណារីយ៉ូនៃការវាយប្រហារ ដោយហេតុនេះធ្វើអោយប្រសើរឡើងនូវសមត្ថភាពការពារ និងកាត់បន្ថយហានិភ័យសន្តិសុខព័ត៌មាន។
ការបោកប្រាស់ Deepfake កំពុងក្លាយជារឿងធម្មតាកាន់តែច្រើនឡើង។ ជាមួយនឹងការអភិវឌ្ឍន៍យ៉ាងឆាប់រហ័សនៃ AI តើការវាយប្រហារទាំងនេះនឹងមានគ្រោះថ្នាក់ដល់កម្រិតណានាពេលអនាគត?
លោកបណ្ឌិត Nguyen Tuan Khang៖ ជាទូទៅ Deepfake គឺជាបច្ចេកវិទ្យាដែលជួយពួក Hacker បង្កើតអត្តសញ្ញាណឌីជីថលក្លែងក្លាយ ដោយហេតុនេះការក្លែងបន្លំអ្នកដទៃ។ Deepfake នឹងក្លាយជាបញ្ហាដ៏គ្រោះថ្នាក់ព្រោះបច្ចេកវិទ្យានេះកាន់តែទំនើប។
ដើម្បីប្រយុទ្ធប្រឆាំងនឹង Deepfake រឿងដំបូងដែលត្រូវធ្វើគឺកំណត់ថាតើរូបភាព ឬសំឡេងរបស់មនុស្សត្រូវបានបង្កើតដោយ AI ។ បច្ចុប្បន្ននេះមិនមានឧបករណ៍សកលដែលអាចរកឃើញ Deepfakes ភ្លាមៗទេ ពីព្រោះអ្នកវាយប្រហារកំពុងបង្កើតម៉ូដែលថ្មីៗឥតឈប់ឈរ។
បន្ថែមពីលើការរកឃើញ Deepfake មានបច្ចេកទេសមួយផ្សេងទៀតដើម្បីដោះស្រាយវា ដែលកំពុងប្រើប្រាស់បច្ចេកវិទ្យាដើម្បីវិភាគឥរិយាបថ។ តាមទស្សនៈរបស់អង្គការ និងអាជីវកម្ម ចាំបាច់ត្រូវបង្កើតប្រព័ន្ធដែលរួមបញ្ចូលគ្នានូវបច្ចេកទេសទាំងពីរនេះ។
នាពេលថ្មីៗនេះ មានការវាយប្រហារតាមអ៊ីនធឺណិត ដែលពួក Hacker បានលួចលាក់មេរោគនៅក្នុងប្រព័ន្ធរបស់ក្រុមហ៊ុន។ មេរោគកំពុងរង់ចាំ និងវិភាគសកម្មភាពទាំងអស់ ដោយហេតុនេះបង្កើតអត្តសញ្ញាណក្លែងក្លាយ ដើម្បីអនុវត្តចេតនាព្យាបាទ។ ជាមួយនឹងការអភិវឌ្ឍន៍នៃបច្ចេកវិទ្យា Deepfake រួមជាមួយនឹងសមត្ថភាពក្នុងការបង្កើតវីដេអូដែលបង្កើតឡើងដោយ AI ប្រភេទនៃការវាយប្រហារទាំងនេះនឹងកាន់តែមានគ្រោះថ្នាក់នាពេលអនាគត។
ជាមួយនឹងការកើនឡើងនៃការវាយប្រហារតាមអ៊ីនធឺណិត Deepfake តើយើងអាចការពារមនុស្សចាស់ កុមារ និងក្រុមដែលងាយរងគ្រោះផ្សេងទៀតពីអ្នកបោកប្រាស់ដោយរបៀបណា?
លោកបណ្ឌិត Nguyen Tuan Khang៖ មនុស្សចាស់ និងកុមារតែងតែរងការវាយប្រហារដោយអ្នកបោកប្រាស់ដោយប្រើបច្ចេកទេសមួយហៅថា វិស្វកម្មសង្គម។ នេះគឺជាពាក្យដែលពិពណ៌នាអំពីការវាយប្រហារតាមរយៈឧបាយកលនៃអាកប្បកិរិយារបស់មនុស្ស។
ឥឡូវនេះពួក Hacker អាចប្រើប្រាស់ AI រួមជាមួយនឹងការប្រមូលទិន្នន័យ ការជីកយករ៉ែ និងការវិភាគដើម្បីកំណត់អត្តសញ្ញាណមនុស្សដែលទំនងជាត្រូវបានគេបោកប្រាស់ ហើយបន្ទាប់មកស្វែងរកវិធីវាយប្រហារ។ បន្ថែមពីលើការលើកកម្ពស់ការយល់ដឹងនៅក្នុងសហគមន៍ យើងក៏ត្រូវតែទទួលយកផងដែរថា ស្ថានភាពដែលអ្នកប្រើប្រាស់ត្រូវបានគេបោកប្រាស់នឹងកើតឡើង ហើយត្រូវប្រើបច្ចេកវិទ្យាដើម្បីស្វែងរក និងទប់ស្កាត់វា។
ថ្មីៗនេះ មានករណីបុគ្គលិកធនាគារម្នាក់ សង្ស័យថា ស្ត្រីចំណាស់ម្នាក់ ដែលមកផ្ទេរប្រាក់ មានសញ្ញានៃការបោកប្រាស់។ បន្ទាប់មកជននេះបានបញ្ឈប់ប្រតិបត្តិការភ្លាមៗ ហើយរាយការណ៍ទៅអាជ្ញាធរ។ ប្រព័ន្ធ IT របស់ធនាគារឥឡូវនេះមានបច្ចេកវិទ្យាដើម្បីជំនួសមនុស្សក្នុងកិច្ចការបែបនេះ។
តួនាទីរបស់បច្ចេកវិទ្យាគឺថា ទោះបីជាអ្នកផ្ញើត្រូវបានគេដឹងថាជាមនុស្សពិតប្រាកដក៏ដោយ ក៏ប្រព័ន្ធនឹងនៅតែបញ្ឈប់ការផ្ទេរនេះ ប្រសិនបើវាត្រូវបានគេសង្ស័យថាប្រតិបត្តិការនេះកំពុងត្រូវបានរៀបចំដោយអ្នកផ្សេង។ ឧបករណ៍បែបនេះត្រូវបានគេហៅថាប្រព័ន្ធការពារការក្លែងបន្លំ។
តើដល់ពេលដែលវៀតណាមត្រូវដាក់ទណ្ឌកម្មដើម្បីគ្រប់គ្រង AI និងដាក់ការស្រាវជ្រាវ ការអភិវឌ្ឍន៍ និងប្រើប្រាស់ AI ទៅក្នុងក្របខ័ណ្ឌមួយ?
លោកបណ្ឌិត Nguyen Tuan Khang៖ បញ្ហានៃការគ្រប់គ្រង AI ត្រូវបានពិភាក្សាជាយូរមកហើយ ប៉ុន្តែនៅតែមានភាពចម្រូងចម្រាសជាច្រើន។ ឧទាហរណ៍ ចំណតរថយន្តក្នុងតំបន់របស់ខ្ញុំមានប្រព័ន្ធ AI ដើម្បីសម្គាល់ស្លាកលេខ ប៉ុន្តែនៅតែមានចោរលួច។ នៅពេលនោះ ភាពចម្រូងចម្រាសបានកើតឡើងថា តើអ្នកណាជាកំហុស។ តើម្ចាស់អាផាតមិន សន្តិសុខ ឬអ្នកបង្កើតប្រព័ន្ធ AI គួរទទួលខុសត្រូវទេ?
ចាប់តាំងពីពេលនោះមក អគារនេះបានផ្លាស់ប្តូរច្បាប់របស់ខ្លួន ដោយបញ្ជាក់ថាអ្នករស់នៅអាចជ្រើសរើសប្រើប្រាស់ AI ដើម្បីស្គាល់ស្លាកលេខដើម្បីភាពងាយស្រួល ប៉ុន្តែពួកគេត្រូវតែទទួលយកហានិភ័យ។ អ្នកដែលយល់ព្រមនឹងអាចប្រើទ្វារស្វ័យប្រវត្តិ អ្នកដែលមិនត្រូវចតរថយន្តតាមផ្លូវចាស់។ យើងត្រូវមានទណ្ឌកម្មបែបនេះ។
ដូចគ្នានេះដែរ IBM ធ្លាប់បានបង្កើតប្រព័ន្ធ AI ដើម្បីជួយការពារជំងឺមហារីក។ នៅពេលដែលប្រព័ន្ធបានចេញវេជ្ជបញ្ជាថ្នាំ ប៉ុន្តែអ្នកជំងឺបានលេបវា ប៉ុន្តែនៅតែមិនអាចសង្គ្រោះបាន តើវាជាកំហុសរបស់វេជ្ជបណ្ឌិត ឬជាកំហុសរបស់ AI?
ខ្ញុំគិតថាបទប្បញ្ញត្តិ AI ត្រូវតែជាក់លាក់ ដោយបញ្ជាក់យ៉ាងច្បាស់នូវអ្វីដែលអាចធ្វើបាន និងមិនអាចធ្វើនៅពេលបង្កើតកម្មវិធី AI ។ ដើម្បីធ្វើឱ្យពិភពលោកមានសុវត្ថិភាពជាងមុន បទប្បញ្ញត្តិជាមូលដ្ឋានបំផុតដែលយើងអាចធ្វើបានគឺតម្រូវឱ្យមានការផ្ទេរប្រាក់ដ៏ធំដើម្បីឱ្យមានការទទួលស្គាល់ដោយជីវមាត្រ។ ក្នុងស្ថានភាពបែបនេះ អ្នកដែលបាត់បង់ព័ត៌មានអត្តសញ្ញាណអាចជៀសវាងការបាត់បង់លុយទាំងស្រុង។
សូមអរគុណ។
ប្រភព






Kommentar (0)