តើអ្នកវាយតម្លៃយ៉ាងណាចំពោះនិន្នាការរបស់ពួក Hacker ដែលកំពុង «បំពាក់អាវុធ» ដល់ AI ដើម្បីអនុវត្តការវាយប្រហារតាមអ៊ីនធឺណិត និងការឆបោក?
លោកវេជ្ជបណ្ឌិត ង្វៀន ទួន ខាង៖ យោងតាមរបាយការណ៍សន្ទស្សន៍ស៊ើបការណ៍គំរាមកំហែង X-Force ឆ្នាំ ២០២៤ របស់ក្រុមហ៊ុន IBM តំបន់អាស៊ី ប៉ាស៊ីហ្វិក រួមទាំងប្រទេសវៀតណាមផងដែរ គឺជាតំបន់មួយក្នុងចំណោមតំបន់កំពូលទាំងបីនៅលើពិភពលោកសម្រាប់ការវាយប្រហារតាមអ៊ីនធឺណិតក្នុងឆ្នាំ ២០២៣។ វិស័យផលិតកម្មគឺជាវិស័យដែលរងផលប៉ះពាល់ខ្លាំងបំផុតដោយឧប្បត្តិហេតុវាយប្រហារតាមអ៊ីនធឺណិតទាំងនេះ។
យុទ្ធសាស្ត្រចម្បងដែលប្រើដោយជនល្មើសព្យាបាទនៅតែជាការវាយប្រហារតាមប្រព័ន្ធអេឡិចត្រូនិក (Phishing) ដែលកំណត់គោលដៅលើបុគ្គលងាយរងគ្រោះ និងការកេងប្រវ័ញ្ចភាពងាយរងគ្រោះដើម្បីដំឡើងមេរោគ។ លើសពីនេះ និន្នាការថ្មីមួយដែលកំពុងលេចចេញនៅឆ្នាំ ២០២៤ គឺការវាយប្រហារតាមអ៊ីនធឺណិតដែលពាក់ព័ន្ធនឹងបញ្ញាសិប្បនិម្មិត (AI)។
របាយការណ៍របស់ Wired បង្ហាញថា ជនល្មើសដែលមានគំនិតអាក្រក់ជាច្រើនកំពុងប្រើប្រាស់ខ្លឹមសារដែលបង្កើតដោយ AI ដើម្បីជួយណែនាំការប៉ុនប៉ងលួចចូល បង្កើត chatbot ក្លែងបន្លំ ឬផលិតរូបភាព និង វីដេអូ ក្លែងក្លាយដែលធ្វើត្រាប់តាមមុខ និងសំឡេងរបស់អ្នកដទៃដោយប្រើប្រាស់បច្ចេកវិទ្យា Deepfake។
ទោះជាយ៉ាងណាក៏ដោយ រួមជាមួយនឹងនិន្នាការនេះ ប្រព័ន្ធសន្តិសុខព័ត៌មានក៏កំពុងចាប់ផ្តើមរួមបញ្ចូលមុខងារ AI ដូចជា WatsonX ផងដែរ។ បញ្ញាសិប្បនិម្មិតអាចត្រូវបានកេងប្រវ័ញ្ច ប៉ុន្តែវាក៏អាចជំនួសមនុស្សក្នុងការវិភាគ ការត្រួតពិនិត្យ ការកំណត់អត្តសញ្ញាណឌីជីថល និងការព្យាករណ៍សេណារីយ៉ូវាយប្រហារផងដែរ ដោយហេតុនេះបង្កើនសមត្ថភាពការពារ និងកាត់បន្ថយហានិភ័យសន្តិសុខព័ត៌មាន។
ការឆបោក Deepfake កំពុងតែក្លាយជារឿងធម្មតាកាន់តែខ្លាំងឡើង។ ជាមួយនឹងការអភិវឌ្ឍយ៉ាងឆាប់រហ័សនៃ AI តើការវាយប្រហារទាំងនេះនឹងមានគ្រោះថ្នាក់ប៉ុណ្ណានាពេលអនាគត?
លោកវេជ្ជបណ្ឌិត ង្វៀន ទួន ខាង៖ ជាទូទៅ Deepfake គឺជាបច្ចេកវិទ្យាមួយដែលអនុញ្ញាតឱ្យពួក Hacker បង្កើតអត្តសញ្ញាណឌីជីថលក្លែងក្លាយ ដោយហេតុនេះធ្វើត្រាប់តាមអ្នកដទៃ។ Deepfake នឹងក្លាយជាបញ្ហាដ៏គ្រោះថ្នាក់មួយ ពីព្រោះបច្ចេកវិទ្យានេះកាន់តែមានភាពទំនើបឡើងៗ។
ដើម្បីប្រយុទ្ធប្រឆាំងនឹង Deepfake ជំហានដំបូងគឺត្រូវកំណត់ថាតើរូបភាព ឬសំឡេងរបស់នរណាម្នាក់ត្រូវបានបង្កើតឡើងដោយ AI ដែរឬទេ។ បច្ចុប្បន្ននេះ មិនមានឧបករណ៍សកលណាមួយដើម្បីរកឃើញ Deepfake ភ្លាមៗនោះទេ ពីព្រោះអ្នកវាយប្រហារកំពុងអភិវឌ្ឍគំរូថ្មីៗឥតឈប់ឈរ។
បន្ថែមពីលើការកំណត់អត្តសញ្ញាណ Deepfakes បច្ចេកទេសមួយទៀតដើម្បីប្រយុទ្ធប្រឆាំងនឹងពួកវាគឺការប្រើប្រាស់បច្ចេកវិទ្យាដើម្បីវិភាគឥរិយាបថ។ ពីទស្សនៈរបស់អង្គការ ឬអាជីវកម្ម វាចាំបាច់ក្នុងការបង្កើតប្រព័ន្ធមួយដែលរួមបញ្ចូលគ្នានូវបច្ចេកទេសទាំងពីរនេះ។
ថ្មីៗនេះ មានការវាយប្រហារតាមអ៊ីនធឺណិត ដែលពួក Hacker លួចលាក់បង្កើតមេរោគនៅក្នុងប្រព័ន្ធរបស់ក្រុមហ៊ុនមួយ។ មេរោគនេះស្ថិតនៅអសកម្ម ដោយវិភាគសកម្មភាពទាំងអស់ និងបង្កើតអត្តសញ្ញាណក្លែងក្លាយ ដើម្បីអនុវត្តចេតនាអាក្រក់។ ជាមួយនឹងការអភិវឌ្ឍបច្ចេកវិទ្យា Deepfake រួមផ្សំជាមួយនឹងសមត្ថភាពបង្កើតវីដេអូដែលដំណើរការដោយ AI ការវាយប្រហារប្រភេទនេះនឹងកាន់តែមានគ្រោះថ្នាក់នៅពេលអនាគត។
ជាមួយនឹងការវាយប្រហារតាមអ៊ីនធឺណិត Deepfake ដែលកំពុងកើនឡើង តើយើងអាចការពារមនុស្សចាស់ កុមារ និងក្រុមងាយរងគ្រោះផ្សេងទៀតពីអ្នកបោកប្រាស់ដោយរបៀបណា?
លោកវេជ្ជបណ្ឌិត ង្វៀន ទួន ខាង៖ មនុស្សចាស់ និងកុមារ ជារឿយៗត្រូវបានជនឆបោកកំណត់គោលដៅដោយប្រើបច្ចេកទេសមួយហៅថា វិស្វកម្មសង្គម។ ពាក្យនេះពិពណ៌នាអំពីការវាយប្រហារដែលរៀបចំឥរិយាបថរបស់មនុស្ស។
ឥឡូវនេះ ពួក Hacker អាចប្រើប្រាស់បញ្ញាសិប្បនិម្មិត (AI) រួមជាមួយនឹងការប្រមូលទិន្នន័យ ការកេងប្រវ័ញ្ច និងការវិភាគ ដើម្បីកំណត់អត្តសញ្ញាណបុគ្គលដែលងាយនឹងរងការបោកប្រាស់ ហើយបន្ទាប់មកកំណត់គោលដៅលើពួកគេ។ ក្រៅពីការបង្កើនការយល់ដឹងជាសាធារណៈ យើងក៏ត្រូវតែទទួលយកថា ស្ថានភាពដែលអ្នកប្រើប្រាស់ត្រូវរងការបោកប្រាស់នឹងកើតឡើង ហើយយើងត្រូវតែប្រើប្រាស់បច្ចេកវិទ្យាដើម្បីរកឃើញ និងទប់ស្កាត់ឧប្បត្តិហេតុបែបនេះ។
ថ្មីៗនេះ មានហេតុការណ៍មួយដែលបុគ្គលិកធនាគារម្នាក់សង្ស័យថាស្ត្រីវ័យចំណាស់ម្នាក់ត្រូវបានគេបោកប្រាស់ ខណៈពេលកំពុងធ្វើការផ្ទេរប្រាក់។ បុគ្គលិកនោះបានធ្វើអន្តរាគមន៍ភ្លាមៗ និងរាយការណ៍ពីហេតុការណ៍នេះទៅអាជ្ញាធរ។ ប្រព័ន្ធ IT របស់ធនាគារឥឡូវនេះត្រូវការបច្ចេកវិទ្យាដើម្បីជំនួសអន្តរាគមន៍របស់មនុស្សក្នុងបញ្ហាបែបនេះ។
តួនាទីរបស់បច្ចេកវិទ្យាគឺថា ទោះបីជាអ្នកផ្ញើត្រូវបានគេដឹងថាជាម្ចាស់ស្របច្បាប់ក៏ដោយ ប្រព័ន្ធនឹងនៅតែចាត់វិធានការដើម្បីរារាំងប្រតិបត្តិការ ប្រសិនបើវាសង្ស័យថាមានការរៀបចំដោយអ្នកផ្សេង។ ឧបករណ៍បែបនេះត្រូវបានគេហៅថា ប្រព័ន្ធការពារការក្លែងបន្លំ។
តើដល់ពេលហើយឬនៅសម្រាប់ប្រទេសវៀតណាមក្នុងការអនុវត្តបទប្បញ្ញត្តិដើម្បីគ្រប់គ្រង AI ដោយនាំយកការស្រាវជ្រាវ ការអភិវឌ្ឍ និងការប្រើប្រាស់ AI ចូលទៅក្នុងក្របខ័ណ្ឌដែលមានរចនាសម្ព័ន្ធ?
លោកវេជ្ជបណ្ឌិត ង្វៀន ទួន ខាង៖ បញ្ហានៃការគ្រប់គ្រងបញ្ញាសិប្បនិម្មិត (AI) ត្រូវបានពិភាក្សាជាយូរមកហើយ ប៉ុន្តែនៅតែមានចំណុចចម្រូងចម្រាសជាច្រើន។ ឧទាហរណ៍ ចំណតរថយន្តនៅក្នុងសង្កាត់របស់ខ្ញុំមានប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) សម្រាប់សម្គាល់ផ្លាកលេខ ប៉ុន្តែការលួចនៅតែកើតឡើង។ នោះហើយជាពេលដែលការជជែកវែកញែកបានចាប់ផ្តើមអំពីអ្នកណាជាអ្នកខុស។ តើម្ចាស់អគារ អ្នកយាមសន្តិសុខ ឬអ្នកអភិវឌ្ឍន៍ប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) គួរទទួលខុសត្រូវដែរឬទេ?
ចាប់តាំងពីពេលនោះមក អគារនេះបានផ្លាស់ប្តូរបទប្បញ្ញត្តិរបស់ខ្លួន ដោយបញ្ជាក់ថា អ្នកស្រុកអាចជ្រើសរើសប្រើប្រាស់ការសម្គាល់ផ្លាកលេខដែលដំណើរការដោយបញ្ញាសិប្បនិម្មិត (AI) ដើម្បីភាពងាយស្រួល ប៉ុន្តែពួកគេត្រូវតែទទួលយកហានិភ័យ។ អ្នកដែលយល់ព្រមអាចប្រើប្រាស់ច្រកទ្វារស្វ័យប្រវត្តិ ខណៈដែលអ្នកមិនយល់ស្របត្រូវចតរថយន្តរបស់ពួកគេតាមរបៀបចាស់។ យើងត្រូវការប្រព័ន្ធបែបនោះ។
ស្រដៀងគ្នានេះដែរ ក្រុមហ៊ុន IBM ធ្លាប់បានបង្កើតប្រព័ន្ធ AI ដើម្បីជួយការពារជំងឺមហារីក។ នៅពេលដែលប្រព័ន្ធបានចេញវេជ្ជបញ្ជាថ្នាំ ហើយអ្នកជំងឺបានលេបវា ប៉ុន្តែនៅតែមិនអាចជួយសង្គ្រោះបាន តើជាកំហុសរបស់វេជ្ជបណ្ឌិត ឬបញ្ញាសិប្បនិម្មិត?
ខ្ញុំគិតថាបទប្បញ្ញត្តិសម្រាប់ AI ត្រូវតែជាក់លាក់ ដោយបញ្ជាក់យ៉ាងច្បាស់អំពីអ្វីដែលត្រូវបានអនុញ្ញាត និងអ្វីដែលមិនត្រូវបានអនុញ្ញាតនៅពេលបង្កើតកម្មវិធី AI។ ដើម្បីធ្វើឱ្យពិភពលោកមានសុវត្ថិភាពជាងមុន បទប្បញ្ញត្តិជាមូលដ្ឋានបំផុតដែលយើងអាចអនុវត្តបានគឺទាមទារឱ្យការផ្ទេរប្រាក់យ៉ាងច្រើនត្រូវបានផ្ទៀងផ្ទាត់ជីវមាត្រ។ ក្នុងស្ថានភាពបែបនេះ មនុស្សដែលអត្តសញ្ញាណរបស់ពួកគេត្រូវបានគេលួចចូលអាចជៀសវាងការបាត់បង់ប្រាក់ទាំងស្រុង។
អរគុណលោក។
[ការផ្សាយពាណិជ្ជកម្ម_២]
ប្រភព






Kommentar (0)