តើអ្នកគិតយ៉ាងណាដែរចំពោះនិន្នាការនៃពួក Hacker "អាវុធ" AI ដើម្បីអនុវត្តការវាយប្រហារតាមអ៊ីនធឺណិត និងការក្លែងបន្លំ?
លោកបណ្ឌិត Nguyen Tuan Khang៖ យោងតាមសន្ទស្សន៍ចារកម្ម X-Force Threat Intelligence Index របស់ IBM ឆ្នាំ 2024 អាស៊ីប៉ាស៊ីហ្វិក រួមទាំងប្រទេសវៀតណាម គឺជាតំបន់ដែលទទួលរងការវាយប្រហារតាមអ៊ីនធឺណិតច្រើនជាងគេបំផុត នៅលើពិភពលោក ក្នុងឆ្នាំ 2023។ ដែលក្នុងនោះ ការផលិតគឺជាឧស្សាហកម្មដែលរងផលប៉ះពាល់ខ្លាំងបំផុតដោយការវាយប្រហារតាមអ៊ីនធឺណិត។
វិធីសាស្រ្តចម្បងនៃមនុស្សអាក្រក់គឺនៅតែជាការវាយប្រហារដោយបន្លំ កំណត់គោលដៅមនុស្សដែលងាយរងគ្រោះ និងទាញយកភាពងាយរងគ្រោះដើម្បីដំឡើងមេរោគ។ លើសពីនេះ និន្នាការដែលកំពុងលេចចេញនៅឆ្នាំ 2024 គឺការវាយប្រហារតាមប្រព័ន្ធអ៊ីនធឺណេត ដែលពាក់ព័ន្ធនឹងបញ្ញាសិប្បនិម្មិត (AI)។
របាយការណ៍របស់ Wired ចង្អុលបង្ហាញថាមនុស្សអាក្រក់ជាច្រើនកំពុងប្រើប្រាស់ AI ជំនាន់មុន ដើម្បីជួយណែនាំការលួចចូល បង្កើត chatbots ក្លែងបន្លំ ឬរូបភាព និង វីដេអូ ក្លែងក្លាយនៃមុខ និងសំឡេងរបស់អ្នកដទៃដោយប្រើ Deepfake ។
ទោះជាយ៉ាងណាក៏ដោយ ទន្ទឹមនឹងនិន្នាការនេះ ប្រព័ន្ធសុវត្ថិភាពព័ត៌មានក៏កំពុងចាប់ផ្តើមរួមបញ្ចូលមុខងារ AI ដូចជា watsonx ផងដែរ។ បញ្ញាសិប្បនិមិត្តអាចត្រូវបានគេកេងប្រវ័ញ្ច ប៉ុន្តែវាក៏អាចជំនួសមនុស្សក្នុងការវិភាគ តាមដាន កំណត់អត្តសញ្ញាណលេខ ទស្សន៍ទាយអំពីសេណារីយ៉ូនៃការវាយប្រហារ ដោយហេតុនេះធ្វើអោយប្រសើរឡើងនូវសមត្ថភាពការពារ និងកាត់បន្ថយហានិភ័យសន្តិសុខព័ត៌មាន។
ការបោកប្រាស់ Deepfake កំពុងក្លាយជារឿងធម្មតាកាន់តែច្រើនឡើង។ ជាមួយនឹងការអភិវឌ្ឍន៍យ៉ាងឆាប់រហ័សនៃ AI តើការវាយប្រហារទាំងនេះនឹងមានគ្រោះថ្នាក់ដល់កម្រិតណានាពេលអនាគត?
លោកបណ្ឌិត Nguyen Tuan Khang៖ ជាទូទៅ Deepfake គឺជាបច្ចេកវិទ្យាដែលជួយពួក Hacker បង្កើតអត្តសញ្ញាណឌីជីថលក្លែងក្លាយ ដោយហេតុនេះការក្លែងបន្លំអ្នកដទៃ។ Deepfake នឹងក្លាយជាបញ្ហាដ៏គ្រោះថ្នាក់ព្រោះបច្ចេកវិទ្យានេះកាន់តែទំនើប។
ដើម្បីប្រយុទ្ធប្រឆាំងនឹង Deepfakes រឿងដំបូងដែលត្រូវធ្វើគឺកំណត់ថាតើរូបភាព ឬសំឡេងរបស់មនុស្សត្រូវបានបង្កើតដោយ AI ។ បច្ចុប្បន្ននេះមិនមានឧបករណ៍សកលដែលអាចរកឃើញ Deepfakes ភ្លាមៗទេ ពីព្រោះអ្នកវាយប្រហារកំពុងបង្កើតម៉ូដែលថ្មីៗឥតឈប់ឈរ។
បន្ថែមពីលើការរកឃើញ Deepfake មានបច្ចេកទេសមួយផ្សេងទៀតដើម្បីដោះស្រាយវា ដែលកំពុងប្រើប្រាស់បច្ចេកវិទ្យាដើម្បីវិភាគឥរិយាបថ។ តាមទស្សនៈរបស់អង្គការ និងអាជីវកម្ម ចាំបាច់ត្រូវបង្កើតប្រព័ន្ធដែលរួមបញ្ចូលគ្នានូវបច្ចេកទេសទាំងពីរនេះ។
នាពេលថ្មីៗនេះ មានការវាយប្រហារតាមអ៊ីនធឺណិត ដែលពួក Hacker បានលួចលាក់មេរោគនៅក្នុងប្រព័ន្ធរបស់ក្រុមហ៊ុន។ មេរោគកំពុងរង់ចាំ និងវិភាគសកម្មភាពទាំងអស់ ដោយហេតុនេះបង្កើតអត្តសញ្ញាណក្លែងក្លាយ ដើម្បីអនុវត្តចេតនាព្យាបាទ។ ជាមួយនឹងការអភិវឌ្ឍន៍នៃបច្ចេកវិទ្យា Deepfake រួមជាមួយនឹងសមត្ថភាពក្នុងការបង្កើតវីដេអូដែលបង្កើតឡើងដោយ AI ប្រភេទនៃការវាយប្រហារទាំងនេះនឹងកាន់តែមានគ្រោះថ្នាក់នាពេលអនាគត។
ជាមួយនឹងការកើនឡើងនៃការវាយប្រហារតាមអ៊ីនធឺណិត Deepfake តើយើងអាចការពារមនុស្សចាស់ កុមារ និងក្រុមដែលងាយរងគ្រោះផ្សេងទៀតពីអ្នកបោកប្រាស់ដោយរបៀបណា?
លោកបណ្ឌិត Nguyen Tuan Khang៖ មនុស្សចាស់ និងកុមារតែងតែរងការវាយប្រហារដោយអ្នកបោកប្រាស់ដោយប្រើបច្ចេកទេសមួយហៅថា វិស្វកម្មសង្គម។ នេះគឺជាពាក្យដែលពិពណ៌នាអំពីការវាយប្រហារតាមរយៈឧបាយកលនៃអាកប្បកិរិយារបស់មនុស្ស។
ឥឡូវនេះពួក Hacker អាចប្រើប្រាស់ AI រួមជាមួយនឹងការប្រមូលទិន្នន័យ ការជីកយករ៉ែ និងការវិភាគដើម្បីកំណត់អត្តសញ្ញាណមនុស្សដែលទំនងជាត្រូវបានគេបោកប្រាស់ ហើយបន្ទាប់មកស្វែងរកវិធីវាយប្រហារ។ បន្ថែមពីលើការលើកកម្ពស់ការយល់ដឹងនៅក្នុងសហគមន៍ យើងក៏ត្រូវតែទទួលយកផងដែរថា ស្ថានភាពដែលអ្នកប្រើប្រាស់ត្រូវបានគេបោកប្រាស់នឹងកើតឡើង ហើយត្រូវប្រើបច្ចេកវិទ្យាដើម្បីស្វែងរក និងទប់ស្កាត់វា។
ថ្មីៗនេះ មានករណីបុគ្គលិកធនាគារម្នាក់ សង្ស័យថា ស្ត្រីចំណាស់ម្នាក់ ដែលមកផ្ទេរប្រាក់ មានសញ្ញានៃការបោកប្រាស់។ បន្ទាប់មកជននេះបានបញ្ឈប់ប្រតិបត្តិការភ្លាមៗ ហើយរាយការណ៍ទៅអាជ្ញាធរ។ ប្រព័ន្ធ IT របស់ធនាគារឥឡូវនេះមានបច្ចេកវិទ្យាដើម្បីជំនួសមនុស្សក្នុងកិច្ចការបែបនេះ។
តួនាទីរបស់បច្ចេកវិទ្យាគឺថា ទោះបីជាអ្នកផ្ញើត្រូវបានគេដឹងថាជាមនុស្សពិតប្រាកដក៏ដោយ ក៏ប្រព័ន្ធនឹងនៅតែរារាំងឥរិយាបថនេះ ប្រសិនបើគេសង្ស័យថាមានអ្នកផ្សេងកំពុងរៀបចំវា។ ឧបករណ៍បែបនេះត្រូវបានគេហៅថាប្រព័ន្ធកាត់បន្ថយការក្លែងបន្លំ និងការក្លែងបន្លំ។
តើដល់ពេលដែលវៀតណាមត្រូវដាក់ទណ្ឌកម្មដើម្បីគ្រប់គ្រង AI និងដាក់ការស្រាវជ្រាវ ការអភិវឌ្ឍន៍ និងប្រើប្រាស់ AI ទៅក្នុងក្របខ័ណ្ឌមួយ?
លោកបណ្ឌិត Nguyen Tuan Khang៖ ការដាក់ទណ្ឌកម្មសម្រាប់ការគ្រប់គ្រង AI ត្រូវបានលើកឡើងជាយូរមកហើយ ប៉ុន្តែនៅតែមានភាពចម្រូងចម្រាសជាច្រើន។ ឧទាហរណ៍ ចំណតរថយន្តក្នុងតំបន់របស់ខ្ញុំមានប្រព័ន្ធ AI ដើម្បីសម្គាល់ស្លាកលេខ ប៉ុន្តែនៅតែមានចោរលួច។ នៅពេលនោះ ភាពចម្រូងចម្រាសបានកើតឡើងថា តើអ្នកណាជាកំហុស។ តើម្ចាស់អាផាតមិន ឆ្មាំសន្តិសុខ ឬអង្គភាពដែលបង្កើតប្រព័ន្ធ AI គួរទទួលខុសត្រូវដែរឬទេ?
ចាប់តាំងពីពេលនោះមក អគារនេះបានផ្លាស់ប្តូរច្បាប់របស់ខ្លួន ដោយបញ្ជាក់ថាអ្នករស់នៅអាចជ្រើសរើសប្រើប្រាស់ AI ដើម្បីសម្គាល់ស្លាកលេខដើម្បីភាពងាយស្រួល ប៉ុន្តែពួកគេត្រូវតែទទួលយកហានិភ័យ។ អ្នកដែលយល់ព្រមនឹងអាចប្រើទ្វារស្វ័យប្រវត្តិ អ្នកដែលមិនត្រូវចតរថយន្តតាមផ្លូវចាស់។ យើងត្រូវមានទណ្ឌកម្មបែបនេះ។
ដូចគ្នានេះដែរ IBM ធ្លាប់បានបង្កើតប្រព័ន្ធ AI ដើម្បីជួយការពារជំងឺមហារីក។ នៅពេលដែលប្រព័ន្ធចេញវេជ្ជបញ្ជាថ្នាំ ប៉ុន្តែអ្នកជំងឺនៅតែមិនអាចសង្គ្រោះបានបន្ទាប់ពីលេបថ្នាំ តើវាជាកំហុសរបស់វេជ្ជបណ្ឌិត ឬជាកំហុសរបស់ AI?
ខ្ញុំគិតថាបទប្បញ្ញត្តិ AI ត្រូវតែជាក់លាក់ ដោយបញ្ជាក់យ៉ាងច្បាស់នូវអ្វីដែលអាចធ្វើបាន និងមិនអាចធ្វើនៅពេលបង្កើតកម្មវិធី AI ។ ដើម្បីធ្វើឱ្យពិភពលោកមានសុវត្ថិភាពជាងមុន បទប្បញ្ញត្តិជាមូលដ្ឋានបំផុតដែលយើងអាចធ្វើបានគឺតម្រូវឱ្យមានការផ្ទេរប្រាក់ធំ ៗ ដើម្បីផ្ទៀងផ្ទាត់ភាពត្រឹមត្រូវតាមជីវមាត្រ។ ក្នុងស្ថានភាពបែបនេះ អ្នកដែលបាត់បង់ព័ត៌មានអត្តសញ្ញាណអាចជៀសវាងការបាត់បង់លុយទាំងស្រុង។
សូមអរគុណលោក។
ប្រភព
Kommentar (0)