ឥឡូវនេះ Deepfake គឺជាក្តីបារម្ភដ៏ធំមួយ ខណៈដែលចំនួននៃការបោកប្រាស់ផ្អែកលើបច្ចេកវិទ្យានៅតែបន្តកើនឡើង។
បន្ទាប់ពីការស្រាវជ្រាវលើវេទិកា Darknet ដែលជាកន្លែងដែលឧក្រិដ្ឋជនតាមអ៊ីនធឺណិតតែងតែដំណើរការ អ្នកជំនាញសន្តិសុខបានរកឃើញថាមានឧក្រិដ្ឋជនជាច្រើនដែលប្រើប្រាស់ Deepfake សម្រាប់ការក្លែងបន្លំ ដែលតម្រូវការលើសពីការផ្គត់ផ្គង់កម្មវិធី Deepfake នាពេលបច្ចុប្បន្ននៅលើទីផ្សារ។
ដោយសារតម្រូវការលើសពីការផ្គត់ផ្គង់ អ្នកជំនាញ Kaspersky ព្យាករណ៍ថាចំនួននៃការបោកប្រាស់ Deepfake នឹងកើនឡើង ជាមួយនឹងទម្រង់ចម្រុះ និងស្មុគ្រស្មាញជាងមុន៖ ពីការផ្តល់វីដេអូក្លែងបន្លំដែលមានគុណភាពខ្ពស់ រហូតដល់ការប្រើប្រាស់រូបភាពតារាក្នុងបណ្តាញផ្សព្វផ្សាយសង្គមក្លែងក្លាយ ដោយសន្យាថានឹងបង់ប្រាក់ទ្វេដងនៃចំនួនដែលជនរងគ្រោះបានផ្ញើពួកគេ។
យោងតាមប្រព័ន្ធយោងព័ត៌មាន Regula អាជីវកម្ម 37% នៅទូទាំងពិភពលោកបានជួបប្រទះការក្លែងបន្លំសំឡេង Deepfake ហើយ 29% បានធ្លាក់ខ្លួនជាជនរងគ្រោះចំពោះវីដេអូ Deepfake ។
បច្ចេកវិទ្យានេះបានក្លាយជាការគំរាមកំហែងដល់សន្តិសុខអ៊ីនធឺណិតនៅក្នុងប្រទេសវៀតណាម ដែលឧក្រិដ្ឋជនតាមអ៊ីនធឺណិតតែងតែប្រើការហៅជាវីដេអូក្លែងក្លាយដើម្បីក្លែងបន្លំបុគ្គលដើម្បីខ្ចីប្រាក់ពីសាច់ញាតិ និងមិត្តភក្តិរបស់ពួកគេ។
ការហៅជាវីដេអូ Deepfake អាចមានរយៈពេលត្រឹមតែមួយនាទី ដែលធ្វើឱ្យជនរងគ្រោះពិបាកបែងចែករវាងពិត និងក្លែងក្លាយ។
Deepfake កំពុងក្លាយជា "សុបិន្តអាក្រក់" បន្តិចម្តងៗនៅក្នុងការបោកប្រាស់តាមអ៊ីនធឺណិតដ៏ទំនើប។
“ Deepfakes កំពុងក្លាយជាសុបិន្តអាក្រក់សម្រាប់ស្ត្រី និងសង្គម។ ឧក្រិដ្ឋជនតាមអ៊ីនធឺណិតកំពុងប្រើប្រាស់បញ្ញាសិប្បនិម្មិត (AI) ដើម្បីដាក់បញ្ចូលមុខជនរងគ្រោះទៅក្នុងរូបថត និងវីដេអូអាសអាភាស ក៏ដូចជានៅក្នុងយុទ្ធនាការឃោសនាផងដែរ។
ទម្រង់ទាំងនេះមានគោលបំណងបំប្លែងមតិសាធារណៈដោយការផ្សព្វផ្សាយព័ត៌មានមិនពិត សូម្បីតែធ្វើឱ្យខូចកេរ្តិ៍ឈ្មោះរបស់អង្គការ ឬបុគ្គលក៏ដោយ ” អ្នកស្រី Vo Duong Tu Diem នាយកប្រចាំតំបន់របស់ Kaspersky នៃប្រទេសវៀតណាមបាននិយាយ។
ខណៈពេលដែល AI កំពុងត្រូវបានរំលោភបំពានដោយឧក្រិដ្ឋជនសម្រាប់គោលបំណងព្យាបាទ បុគ្គល និងអាជីវកម្មនៅតែអាចប្រើបញ្ញាសិប្បនិម្មិតដោយខ្លួនឯងដើម្បីកំណត់អត្តសញ្ញាណ Deepfakes ដោយកាត់បន្ថយប្រូបាប៊ីលីតេនៃភាពជោគជ័យនៃការបោកប្រាស់។
ដូច្នោះហើយ អ្នកប្រើប្រាស់នឹងមានដំណោះស្រាយមានប្រយោជន៍មួយចំនួនដើម្បីការពារខ្លួនពីការបោកប្រាស់ ដូចជាការប្រើប្រាស់កម្មវិធីស្វែងរកមាតិកាដែលបង្កើតដោយ AI (ដោយប្រើក្បួនដោះស្រាយកម្រិតខ្ពស់ដើម្បីវិភាគ និងកំណត់កម្រិតនៃការកែសម្រួលរូបភាព/វីដេអូ/អូឌីយ៉ូ)។
សម្រាប់វីដេអូ Deepfake ឥឡូវនេះមានឧបករណ៍ដែលអាចជួយរកឃើញចលនាមាត់ និងការនិយាយមិនត្រូវគ្នា។ កម្មវិធីមួយចំនួនមានថាមពលខ្លាំងដែលពួកគេអាចរកឃើញលំហូរឈាមមិនប្រក្រតីនៅក្រោមស្បែកដោយការវិភាគគុណភាពវីដេអូ ដោយសារតែនៅពេលដែលបេះដូងបូមឈាម សរសៃរបស់មនុស្សផ្លាស់ប្តូរពណ៌។
លើសពីនេះ វាក៏មាន watermark ដែលដើរតួជាសញ្ញាសម្គាល់នៅក្នុងរូបភាព វីដេអូ ជាដើម ដើម្បីជួយអ្នកនិពន្ធការពារការរក្សាសិទ្ធិសម្រាប់ផលិតផល AI ។ លក្ខណៈពិសេសនេះអាចក្លាយជាអាវុធប្រឆាំងនឹង Deepfakes ព្រោះវាជួយតាមដានប្រភពដើមនៃវេទិកាដែលបង្កើតបញ្ញាសិប្បនិម្មិត។ អ្នកប្រើប្រាស់ដែលយល់អំពីបច្ចេកវិទ្យាអាចរកមើលខ្លឹមសារប្រភព ដើម្បីមើលពីរបៀបដែលទិន្នន័យដើមត្រូវបានផ្លាស់ប្តូរដោយ AI ។
បច្ចុប្បន្ននេះ បច្ចេកវិទ្យាដែលកំពុងរីកចម្រើនមួយចំនួនប្រើក្បួនដោះស្រាយគ្រីបគ្រីបដើម្បីបញ្ចូលតម្លៃ hash នៅចន្លោះពេលដែលបានកំណត់នៅក្នុងវីដេអូ។ ប្រសិនបើវីដេអូត្រូវបានកែសម្រួល តម្លៃ hash នឹងផ្លាស់ប្តូរ ហើយពីទីនោះ អ្នកប្រើប្រាស់អាចផ្ទៀងផ្ទាត់ថាតើខ្លឹមសារត្រូវបានរំខានឬអត់។
មានការបង្រៀនខ្លះកាលពីមុនអំពីការស្វែងរកភាពមិនប្រក្រតីនៅក្នុងវីដេអូ ដូចជាការបង្វែរពណ៌ ចលនាសាច់ដុំខុសពីធម្មជាតិ ចលនាភ្នែកជាដើម។ ទោះជាយ៉ាងណាក៏ដោយ AI កាន់តែឆ្លាតជាងមុន ដូច្នេះតម្លៃទាំងនេះមិនតែងតែផ្តល់លទ្ធផលត្រឹមត្រូវនោះទេ។
ដំណើរការនៃការផ្ទៀងផ្ទាត់ភាពជឿជាក់នៃវីដេអូគឺលែងផ្អែកលើភ្នែកទទេទៀតហើយ ប៉ុន្តែទាមទារឧបករណ៍បច្ចេកវិទ្យាដែលកើតមកក្នុងគោលបំណងការពារ និងស្វែងរកខ្លឹមសារក្លែងក្លាយ។
ខាន់ លីញ
ប្រភព
Kommentar (0)