ល្បិចបោកប្រាស់ដោយការក្លែងបន្លំសំឡេងជាមួយសំឡេងក្លែងក្លាយជ្រៅ
នៅក្នុងយុគសម័យនៃការអភិវឌ្ឍន៍បញ្ញាសិប្បនិមិត្តយ៉ាងឆាប់រហ័ស សំលេងដែលជាកត្តាមួយដែលធ្លាប់ត្រូវបានចាត់ទុកថាជាភស្តុតាងពិតប្រាកដ ឥឡូវនេះបានក្លាយជាឧបករណ៍ដ៏គ្រោះថ្នាក់នៅក្នុងដៃរបស់មនុស្សអាក្រក់។ បច្ចេកវិទ្យា សំឡេង Deepfake អនុញ្ញាតឱ្យសំឡេងក្លែងក្លាយមានលក្ខណៈដូចគ្នាបេះបិទទៅនឹងមនុស្សពិត បង្កើតការហៅក្លែងក្លាយដ៏ស្មុគ្រស្មាញ ដើម្បីបន្លំ និងទ្រព្យសម្បត្តិសមស្រប។
ហេតុអ្វីបានជាសំឡេងក្លែងក្លាយគួរឱ្យខ្លាច?
Deepfake voice គឺជាបច្ចេកវិទ្យាដែលអនុវត្តបញ្ញាសិប្បនិម្មិត (AI) និងការរៀនម៉ាស៊ីនដើម្បីបង្កើតសំឡេងក្លែងក្លាយដែលដូចគ្នាបេះបិទទៅនឹងសំឡេងរបស់មនុស្សពិត។
ដោយមានការគាំទ្រពីម៉ូដែលទំនើបដូចជា Tacotron, WaveNet, ElevenLabs ឬវេទិកាក្លូនសំឡេងដូចជា Respeecher អ្នកបោកប្រាស់ត្រូវការតែ 3 ទៅ 10 វិនាទីនៃសំណាកសំឡេងដើម្បីបង្កើតការក្លែងបន្លំដែលអាចទុកចិត្តបាន 95% ។
សំឡេង Deepfake ក្លាយជាគ្រោះថ្នាក់ជាពិសេស ដោយសារតែសមត្ថភាពរបស់ពួកគេក្នុងការធ្វើត្រាប់តាមសំឡេងស្ទើរតែឥតខ្ចោះ ចាប់ពីការបញ្ចេញសំឡេង ការបញ្ចេញសំឡេង រហូតដល់ទម្លាប់និយាយតែមួយគត់របស់មនុស្សម្នាក់ៗ។
នេះធ្វើឱ្យជនរងគ្រោះពិបាកបែងចែករវាងពិត និងក្លែងក្លាយ ជាពិសេសនៅពេលដែលសំឡេងជារបស់សាច់ញាតិ មិត្តភក្តិ ឬថ្នាក់លើរបស់ពួកគេ។
ការជីកយករ៉ែជាសំឡេងក៏មានភាពងាយស្រួលផងដែរ ដោយសារមនុស្សភាគច្រើននាពេលបច្ចុប្បន្ននេះបញ្ចេញសំឡេងរបស់ពួកគេតាមរយៈវេទិកាដូចជា TikTok ការផ្សាយបន្តផ្ទាល់តាមប្រព័ន្ធផ្សព្វផ្សាយសង្គម ផតខាស ឬការប្រជុំតាមអ៊ីនធឺណិត។ គួរឱ្យព្រួយបារម្ភជាងនេះទៅទៀត សំឡេងក្លែងក្លាយមិនបន្សល់ទុកដានដែលមើលឃើញដូចជារូបភាព ឬ វីដេអូ ដែលធ្វើឱ្យការស៊ើបអង្កេតពិបាក ហើយជនរងគ្រោះងាយនឹងបាត់បង់ប្រាក់។
គ្រាន់តែពីរបីវិនាទីនៃគំរូសំឡេងគឺគ្រប់គ្រាន់ដើម្បីបង្កើតការក្លែងបន្លំជ្រៅ
ការបោកប្រាស់ដោយសំឡេង Deepfake កាន់តែមានភាពស្មុគ្រស្មាញ ដែលជារឿយៗប្រើសេណារីយ៉ូដែលធ្លាប់ស្គាល់៖ ការក្លែងខ្លួនជាអ្នកស្គាល់គ្នាក្នុងស្ថានភាពអាសន្ន ដើម្បីបង្កើតភាពភ័យស្លន់ស្លោ និងដាក់សម្ពាធឱ្យជនរងគ្រោះផ្ទេរប្រាក់ភ្លាមៗ។
នៅប្រទេសវៀតណាម មានករណីម្តាយម្នាក់បានទទួលទូរស័ព្ទពី "កូនប្រុស" ប្រាប់គាត់ថាគាត់ជួបគ្រោះថ្នាក់ហើយត្រូវការលុយជាបន្ទាន់។ នៅចក្រភពអង់គ្លេស នាយកក្រុមហ៊ុនម្នាក់ត្រូវបានបោកប្រាស់អស់ជាង 240,000 ដុល្លារ បន្ទាប់ពីលឺថា "ចៅហ្វាយ" របស់គាត់ស្នើសុំផ្ទេរប្រាក់តាមទូរស័ព្ទ។ បុគ្គលិករដ្ឋបាលម្នាក់ក៏ត្រូវគេបោកដែរ ពេលទទួលទូរស័ព្ទពី "ថៅកែធំ" ស្នើសុំឱ្យបង់ប្រាក់ទៅឱ្យ "ដៃគូយុទ្ធសាស្ត្រ"...
ចំណុចទូទៅនៅក្នុងស្ថានភាពទាំងនេះគឺថាសំឡេងក្លែងក្លាយត្រូវបានផលិតឡើងវិញយ៉ាងពិតប្រាកដដូចជាសាច់ញាតិឬថ្នាក់លើដែលធ្វើឱ្យជនរងគ្រោះជឿជាក់ទាំងស្រុងហើយមិនមានពេលវេលាដើម្បីផ្ទៀងផ្ទាត់។
ផ្ទៀងផ្ទាត់ជានិច្ច កុំទុកចិត្តភ្លាមៗ
ជាមួយនឹងការកើនឡើងនៃការបន្លំសំឡេងក្លែងក្លាយ មនុស្សត្រូវបានណែនាំមិនឱ្យផ្ទេរប្រាក់ដោយផ្អែកលើសំឡេងតែម្នាក់ឯងតាមទូរស័ព្ទ ទោះបីជាវាស្តាប់ទៅដូចជាមនុស្សជាទីស្រឡាញ់ក៏ដោយ។ ជំនួសមកវិញ សូមទូរស័ព្ទទៅលេខចាស់ ឬពិនិត្យមើលព័ត៌មានតាមរយៈបណ្តាញជាច្រើន មុនពេលធ្វើប្រតិបត្តិការណាមួយ។
អ្នកជំនាញជាច្រើនក៏ណែនាំឱ្យបង្កើត "ពាក្យសម្ងាត់ខាងក្នុង" នៅក្នុងផ្ទះ ឬអាជីវកម្មសម្រាប់ការផ្ទៀងផ្ទាត់ក្នុងស្ថានភាពមិនធម្មតា។
លើសពីនេះ ចាំបាច់ត្រូវកំណត់ការបង្ហោះវីដេអូដែលមានសំឡេងច្បាស់នៅលើបណ្តាញសង្គម ជាពិសេសខ្លឹមសារវែង។ ជាពិសេស ចាំបាច់ត្រូវព្រមាន និងណែនាំយ៉ាងសកម្មចំពោះក្រុមងាយរងគ្រោះ ដូចជាមនុស្សចាស់ ឬអ្នកដែលមិនសូវមានបច្ចេកវិទ្យា ព្រោះទាំងនេះគឺជាគោលដៅអាទិភាពនៃការបោកប្រាស់បច្ចេកវិទ្យាខ្ពស់។
សំឡេងសាច់ញាតិ មិត្តភ័ក្តិ និងសហការីទាំងអស់អាចត្រូវបានក្លែងបន្លំ។
នៅក្នុងប្រទេសជាច្រើន អាជ្ញាធរបានចាប់ផ្តើមរឹតបន្តឹងការគ្រប់គ្រងលើបច្ចេកវិទ្យាក្លែងបន្លំជ្រៅ ជាមួយនឹងក្របខ័ណ្ឌច្បាប់ផ្ទាល់ខ្លួនរបស់ពួកគេ។
នៅសហរដ្ឋអាមេរិក រដ្ឋជាច្រើនបានហាមប្រាមការប្រើប្រាស់ការក្លែងបន្លំជ្រៅនៅក្នុងយុទ្ធនាការបោះឆ្នោត ឬផ្សព្វផ្សាយព័ត៌មានមិនពិត។ សហភាពអឺរ៉ុប (EU) បានអនុម័តច្បាប់ AI ដោយតម្រូវឱ្យអង្គការនានាមានតម្លាភាព និងព្រមានយ៉ាងច្បាស់ ប្រសិនបើខ្លឹមសារមួយត្រូវបានបង្កើតដោយបញ្ញាសិប្បនិម្មិត។
ទន្ទឹមនឹងនេះដែរ នៅក្នុងប្រទេសវៀតណាម ទោះបីជាមិនមានបទប្បញ្ញត្តិជាក់លាក់ណាមួយសម្រាប់សំឡេងក្លែងក្លាយក៏ដោយ សកម្មភាពដែលពាក់ព័ន្ធអាចត្រូវបានដោះស្រាយដោយយោងទៅតាមច្បាប់បច្ចុប្បន្ន ជាមួយនឹងឧក្រិដ្ឋកម្មដូចជាការក្លែងបន្លំ ការឈ្លានពានឯកជនភាព ឬការក្លែងបន្លំអត្តសញ្ញាណ។
ទោះជាយ៉ាងណាក៏ដោយ ការពិតគឺថាបច្ចេកវិទ្យាកំពុងអភិវឌ្ឍក្នុងអត្រាឆ្ងាយហួសពីសមត្ថភាពរបស់ច្បាប់ក្នុងការត្រួតពិនិត្យ ដែលបន្សល់ទុកនូវចន្លោះប្រហោងជាច្រើនដែលតួអង្គអាក្រក់អាចកេងប្រវ័ញ្ចបាន។
នៅពេលដែលសំឡេងមិនមែនជាភស្តុតាងទៀតទេ
សំឡេងធ្លាប់ជាអ្វីដែលស្និទ្ធស្នាល និងគួរឱ្យទុកចិត្ត ប៉ុន្តែជាមួយនឹងសំឡេងក្លែងក្លាយ វាលែងជាភស្តុតាងដែលអាចទុកចិត្តបានទៀតហើយ។ ក្នុងយុគសម័យ AI បុគ្គលម្នាក់ៗត្រូវមានចំណេះដឹងផ្នែកការពារឌីជីថល ផ្ទៀងផ្ទាត់យ៉ាងសកម្ម និងប្រុងប្រយ័ត្នជានិច្ច ពីព្រោះការហៅទូរសព្ទអាចជាអន្ទាក់។
ប្រភព៖ https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm
Kommentar (0)