
ការបោកប្រាស់ពាក់ព័ន្ធនឹងការក្លែងបន្លំសំឡេងជាមួយនឹងសំឡេងក្លែងក្លាយ
នៅក្នុងយុគសម័យនៃការអភិវឌ្ឍន៍បញ្ញាសិប្បនិមិត្តយ៉ាងឆាប់រហ័ស សំឡេងដែលធ្លាប់ចាត់ទុកថាជាភស្តុតាងដែលអាចទុកចិត្តបាន ឥឡូវនេះបានក្លាយជាឧបករណ៍ដ៏គ្រោះថ្នាក់នៅក្នុងដៃរបស់ឧក្រិដ្ឋជន។ បច្ចេកវិទ្យា សំឡេង Deepfake អនុញ្ញាតឱ្យបង្កើតសំឡេងដែលស្ទើរតែមិនអាចបែងចែកបានពីមនុស្សពិត ដែលអនុញ្ញាតឱ្យមានការហៅឆបោកដ៏ស្មុគ្រស្មាញក្នុងគោលបំណងបន្លំ និងលួចទ្រព្យសម្បត្តិ។
ហេតុអ្វីបានជាសំឡេងក្លែងក្លាយគួរឱ្យខ្លាចដូច្នេះ?
Deepfake voice គឺជាបច្ចេកវិទ្យាដែលប្រើប្រាស់បញ្ញាសិប្បនិម្មិត (AI) និង machine learning ដើម្បីបង្កើតសំឡេងក្លែងក្លាយ ដែលស្តាប់ទៅដូចជាសំឡេងរបស់មនុស្សពិត។
ដោយមានជំនួយពីម៉ូដែលទំនើបដូចជា Tacotron, WaveNet, ElevenLabs ឬវេទិកាក្លូនសំឡេងដូចជា Reppeecher ឧក្រិដ្ឋជនត្រូវការតែ 3-10 វិនាទីនៃគំរូសំឡេងដើម្បីបង្កើតភាពក្លែងក្លាយដែលគួរឱ្យជឿ 95% ។
សំឡេង Deepfake គឺមានគ្រោះថ្នាក់ជាពិសេស ដោយសារតែសមត្ថភាពរបស់ពួកគេក្នុងការធ្វើត្រាប់តាមការនិយាយស្ទើរតែឥតខ្ចោះ ចាប់ពីការបញ្ចេញសំឡេង និងសំឡេងរហូតដល់សូម្បីតែគំរូនៃការនិយាយតែមួយគត់របស់មនុស្សម្នាក់ៗ។
នេះធ្វើឱ្យជនរងគ្រោះពិបាកបែងចែករវាងសំឡេងពិត និងក្លែងក្លាយ ជាពិសេសនៅពេលដែលសំឡេងជារបស់សាច់ញាតិ មិត្តភ័ក្តិ ឬថ្នាក់លើ។
ការទាញយកការថតសំឡេងក៏មានភាពងាយស្រួលផងដែរ ព្រោះសព្វថ្ងៃនេះមនុស្សភាគច្រើនបញ្ចេញសំឡេងរបស់ពួកគេតាមរយៈវេទិកាដូចជា TikTok ការផ្សាយបន្តផ្ទាល់ប្រព័ន្ធផ្សព្វផ្សាយសង្គម ផតខាស ឬការប្រជុំតាមអ៊ីនធឺណិត។ អ្វីដែលគួរឱ្យព្រួយបារម្ភជាងនេះទៅទៀតនោះ សំឡេងក្លែងក្លាយជ្រៅមិនបន្សល់ទុកដានដែលមើលឃើញដូចជារូបភាព ឬ វីដេអូ ដែលធ្វើឱ្យការស៊ើបអង្កេតពិបាក ហើយជនរងគ្រោះងាយបាត់បង់ប្រាក់។

ការក្លែងបន្លំជ្រៅអាចត្រូវបានបង្កើតដោយគ្រាន់តែពីរបីវិនាទីនៃគំរូសំឡេងប៉ុណ្ណោះ។
ការបោកប្រាស់ដោយសំឡេង Deepfake កាន់តែមានភាពស្មុគ្រស្មាញ ជាញឹកញាប់ដោយប្រើស្គ្រីបដែលធ្លាប់ស្គាល់៖ ក្លែងខ្លួនជាអ្នកស្គាល់គ្នាក្នុងស្ថានភាពសង្គ្រោះបន្ទាន់ ដើម្បីបង្កើតការភ័យស្លន់ស្លោ និងដាក់សម្ពាធជនរងគ្រោះឱ្យផ្ទេរប្រាក់ភ្លាមៗ។
នៅប្រទេសវៀតណាម មានករណីម្តាយទទួលទូរស័ព្ទពី "កូនប្រុស" អះអាងថា ជួបគ្រោះថ្នាក់ និងត្រូវការលុយជាបន្ទាន់។ នៅចក្រភពអង់គ្លេស នាយកក្រុមហ៊ុនម្នាក់ត្រូវបានគេបោកប្រាស់អស់ជាង 240,000 ដុល្លារ បន្ទាប់ពីបានឮ "ចៅហ្វាយ" របស់គាត់ស្នើសុំផ្ទេរប្រាក់តាមទូរស័ព្ទ។ បុគ្គលិករដ្ឋបាលម្នាក់ក៏ត្រូវបានបោកបញ្ឆោតផងដែរ នៅពេលដែលគាត់បានទទួលទូរស័ព្ទពី "ចៅហ្វាយជាន់ខ្ពស់" ស្នើសុំការបង់ប្រាក់សម្រាប់ "ដៃគូយុទ្ធសាស្ត្រ"...
រឿងធម្មតានៅក្នុងស្ថានភាពទាំងនេះគឺថា សំឡេងក្លែងក្លាយត្រូវបានបង្កើតឡើងវិញដើម្បីស្តាប់ទៅដូចជាសាច់ញាតិ ឬថ្នាក់លើ ដែលនាំឱ្យជនរងគ្រោះជឿទាំងស្រុង និងមិនមានពេលដើម្បីផ្ទៀងផ្ទាត់។
ផ្ទៀងផ្ទាត់ជានិច្ច កុំជឿភ្លាមៗ។
ដោយសារការកើនឡើងនៃការបោកប្រាស់ដោយសំឡេងក្លែងក្លាយ មនុស្សត្រូវបានណែនាំមិនឱ្យផ្ទេរប្រាក់ដោយផ្អែកលើការហៅជាសំឡេង បើទោះបីជាសំឡេងនោះស្តាប់ទៅដូចសាច់ញាតិក៏ដោយ។ ជំនួសមកវិញ ទូរស័ព្ទទៅលេខដើមវិញ ឬផ្ទៀងផ្ទាត់ព័ត៌មានតាមរយៈបណ្តាញជាច្រើន មុនពេលធ្វើប្រតិបត្តិការណាមួយ។
អ្នកជំនាញជាច្រើនក៏ណែនាំឱ្យបង្កើត "ពាក្យសម្ងាត់ខាងក្នុង" នៅក្នុងគ្រួសារ ឬអាជីវកម្មសម្រាប់ការផ្ទៀងផ្ទាត់ក្នុងស្ថានភាពមិនធម្មតា។
លើសពីនេះទៅទៀត វាជាការចាំបាច់ក្នុងការកម្រិតការបង្ហោះវីដេអូដែលមានសំឡេងច្បាស់លាស់ទៅកាន់ប្រព័ន្ធផ្សព្វផ្សាយសង្គម ជាពិសេសខ្លឹមសារវែង។ ជាពិសេស ការព្រមាន និងការណែនាំយ៉ាងសកម្មគួរតែត្រូវបានផ្តល់ជូនដល់ក្រុមដែលងាយរងគ្រោះ ដូចជាមនុស្សចាស់ ឬអ្នកដែលមានកម្រិតលទ្ធភាពប្រើប្រាស់បច្ចេកវិទ្យា ព្រោះទាំងនេះគឺជាគោលដៅចម្បងសម្រាប់ការបោកប្រាស់បច្ចេកវិទ្យាខ្ពស់។

សំឡេងរបស់គ្រួសារ មិត្តភ័ក្តិ និងសហការីទាំងអស់អាចត្រូវបានក្លែងបន្លំ។
នៅក្នុងប្រទេសជាច្រើន អាជ្ញាធរបានចាប់ផ្តើមរឹតបន្តឹងបទប្បញ្ញត្តិនៃបច្ចេកវិទ្យាក្លែងបន្លំជ្រៅ តាមរយៈក្របខ័ណ្ឌច្បាប់ផ្ទាល់ខ្លួនរបស់ពួកគេ។
នៅសហរដ្ឋអាមេរិក រដ្ឋជាច្រើនបានហាមប្រាមការប្រើប្រាស់ការក្លែងបន្លំជ្រៅនៅក្នុងយុទ្ធនាការបោះឆ្នោត ឬសម្រាប់ការផ្សព្វផ្សាយព័ត៌មានមិនពិត។ សហភាពអឺរ៉ុប (EU) បានអនុម័តច្បាប់ AI ដោយតម្រូវឱ្យអង្គការមានតម្លាភាព និងផ្តល់ការព្រមានច្បាស់លាស់ ប្រសិនបើខ្លឹមសារត្រូវបានបង្កើតដោយប្រើបញ្ញាសិប្បនិម្មិត។
ទន្ទឹមនឹងនេះ នៅក្នុងប្រទេសវៀតណាម ទោះបីជាមិនមានបទប្បញ្ញត្តិជាក់លាក់ណាមួយសម្រាប់សំឡេងក្លែងក្លាយក៏ដោយ សកម្មភាពដែលពាក់ព័ន្ធអាចត្រូវបានកាត់ទោសក្រោមច្បាប់បច្ចុប្បន្ន ដោយមានការចោទប្រកាន់ដូចជាការក្លែងបន្លំ ការឈ្លានពានឯកជនភាព ឬការក្លែងបន្លំអត្តសញ្ញាណ។
ទោះជាយ៉ាងណាក៏ដោយ ការពិតគឺថាបច្ចេកវិទ្យាកំពុងអភិវឌ្ឍក្នុងល្បឿនលើសពីសមត្ថភាពត្រួតពិនិត្យរបស់ច្បាប់ ដែលបន្សល់ទុកនូវចន្លោះប្រហោងជាច្រើនដែលតួអង្គព្យាបាទអាចកេងប្រវ័ញ្ចបាន។
នៅពេលដែលសំឡេងលែងជាភស្តុតាង
សំឡេងធ្លាប់ត្រូវបានផ្សារភ្ជាប់យ៉ាងជិតស្និទ្ធជាមួយនិងភស្តុតាងដែលអាចទុកចិត្តបាន ប៉ុន្តែជាមួយនឹងសំឡេងក្លែងក្លាយ ពួកវាលែងជាភស្តុតាងដែលអាចទុកចិត្តបានទៀតហើយ។ ក្នុងយុគសម័យ AI បុគ្គលត្រូវការចំណេះដឹងផ្នែកការពារឌីជីថល ការផ្ទៀងផ្ទាត់សកម្ម និងការប្រុងប្រយ័ត្នជានិច្ច ពីព្រោះការហៅទូរសព្ទអាចជាអន្ទាក់។
ប្រភព៖ https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm






Kommentar (0)