Vietnam.vn - Nền tảng quảng bá Việt Nam

ការក្លែងបន្លំសំឡេង Deepfake កាន់តែទំនើប តើត្រូវធ្វើអ្វី?

បច្ចេកវិទ្យាសំឡេង Deepfake អនុញ្ញាតឱ្យមនុស្សធ្វើត្រាប់តាមសំឡេងដែលដូចគ្នាបេះបិទទៅនឹងមនុស្សពិត ដែលបណ្តាលឱ្យមនុស្សជាច្រើនធ្លាក់ចូលទៅក្នុងអន្ទាក់នៃការជឿលើសំឡេងដែលធ្លាប់ស្គាល់។

Báo Tuổi TrẻBáo Tuổi Trẻ09/07/2025

Deepfake Voice - Ảnh 1.

ការបោកប្រាស់ពាក់ព័ន្ធនឹងការក្លែងបន្លំសំឡេងជាមួយនឹងសំឡេងក្លែងក្លាយ

នៅក្នុងយុគសម័យនៃការអភិវឌ្ឍន៍បញ្ញាសិប្បនិមិត្តយ៉ាងឆាប់រហ័ស សំឡេងដែលធ្លាប់ចាត់ទុកថាជាភស្តុតាងដែលអាចទុកចិត្តបាន ឥឡូវនេះបានក្លាយជាឧបករណ៍ដ៏គ្រោះថ្នាក់នៅក្នុងដៃរបស់ឧក្រិដ្ឋជន។ បច្ចេកវិទ្យា សំឡេង Deepfake អនុញ្ញាតឱ្យបង្កើតសំឡេងដែលស្ទើរតែមិនអាចបែងចែកបានពីមនុស្សពិត ដែលអនុញ្ញាតឱ្យមានការហៅឆបោកដ៏ស្មុគ្រស្មាញក្នុងគោលបំណងបន្លំ និងលួចទ្រព្យសម្បត្តិ។

ហេតុអ្វីបានជាសំឡេងក្លែងក្លាយគួរឱ្យខ្លាចដូច្នេះ?

Deepfake voice គឺជាបច្ចេកវិទ្យាដែលប្រើប្រាស់បញ្ញាសិប្បនិម្មិត (AI) និង machine learning ដើម្បីបង្កើតសំឡេងក្លែងក្លាយ ដែលស្តាប់ទៅដូចជាសំឡេងរបស់មនុស្សពិត។

ដោយមានជំនួយពីម៉ូដែលទំនើបដូចជា Tacotron, WaveNet, ElevenLabs ឬវេទិកាក្លូនសំឡេងដូចជា Reppeecher ឧក្រិដ្ឋជនត្រូវការតែ 3-10 វិនាទីនៃគំរូសំឡេងដើម្បីបង្កើតភាពក្លែងក្លាយដែលគួរឱ្យជឿ 95% ។

សំឡេង Deepfake គឺមានគ្រោះថ្នាក់ជាពិសេស ដោយសារតែសមត្ថភាពរបស់ពួកគេក្នុងការធ្វើត្រាប់តាមការនិយាយស្ទើរតែឥតខ្ចោះ ចាប់ពីការបញ្ចេញសំឡេង និងសំឡេងរហូតដល់សូម្បីតែគំរូនៃការនិយាយតែមួយគត់របស់មនុស្សម្នាក់ៗ។

នេះធ្វើឱ្យជនរងគ្រោះពិបាកបែងចែករវាងសំឡេងពិត និងក្លែងក្លាយ ជាពិសេសនៅពេលដែលសំឡេងជារបស់សាច់ញាតិ មិត្តភ័ក្តិ ឬថ្នាក់លើ។

ការទាញយកការថតសំឡេងក៏មានភាពងាយស្រួលផងដែរ ព្រោះសព្វថ្ងៃនេះមនុស្សភាគច្រើនបញ្ចេញសំឡេងរបស់ពួកគេតាមរយៈវេទិកាដូចជា TikTok ការផ្សាយបន្តផ្ទាល់ប្រព័ន្ធផ្សព្វផ្សាយសង្គម ផតខាស ឬការប្រជុំតាមអ៊ីនធឺណិត។ អ្វីដែលគួរឱ្យព្រួយបារម្ភជាងនេះទៅទៀតនោះ សំឡេងក្លែងក្លាយជ្រៅមិនបន្សល់ទុកដានដែលមើលឃើញដូចជារូបភាព ឬ វីដេអូ ដែលធ្វើឱ្យការស៊ើបអង្កេតពិបាក ហើយជនរងគ្រោះងាយបាត់បង់ប្រាក់។

Lừa đảo bằng deepfake voice ngày càng tinh vi, phải làm sao? - Ảnh 2.

ការក្លែងបន្លំជ្រៅអាចត្រូវបានបង្កើតដោយគ្រាន់តែពីរបីវិនាទីនៃគំរូសំឡេងប៉ុណ្ណោះ។

ការបោកប្រាស់ដោយសំឡេង Deepfake កាន់តែមានភាពស្មុគ្រស្មាញ ជាញឹកញាប់ដោយប្រើស្គ្រីបដែលធ្លាប់ស្គាល់៖ ក្លែងខ្លួនជាអ្នកស្គាល់គ្នាក្នុងស្ថានភាពសង្គ្រោះបន្ទាន់ ដើម្បីបង្កើតការភ័យស្លន់ស្លោ និងដាក់សម្ពាធជនរងគ្រោះឱ្យផ្ទេរប្រាក់ភ្លាមៗ។

នៅប្រទេសវៀតណាម មានករណីម្តាយទទួលទូរស័ព្ទពី "កូនប្រុស" អះអាងថា ជួបគ្រោះថ្នាក់ និងត្រូវការលុយជាបន្ទាន់។ នៅចក្រភពអង់គ្លេស នាយកក្រុមហ៊ុនម្នាក់ត្រូវបានគេបោកប្រាស់អស់ជាង 240,000 ដុល្លារ បន្ទាប់ពីបានឮ "ចៅហ្វាយ" របស់គាត់ស្នើសុំផ្ទេរប្រាក់តាមទូរស័ព្ទ។ បុគ្គលិករដ្ឋបាលម្នាក់ក៏ត្រូវបានបោកបញ្ឆោតផងដែរ នៅពេលដែលគាត់បានទទួលទូរស័ព្ទពី "ចៅហ្វាយជាន់ខ្ពស់" ស្នើសុំការបង់ប្រាក់សម្រាប់ "ដៃគូយុទ្ធសាស្ត្រ"...

រឿងធម្មតានៅក្នុងស្ថានភាពទាំងនេះគឺថា សំឡេងក្លែងក្លាយត្រូវបានបង្កើតឡើងវិញដើម្បីស្តាប់ទៅដូចជាសាច់ញាតិ ឬថ្នាក់លើ ដែលនាំឱ្យជនរងគ្រោះជឿទាំងស្រុង និងមិនមានពេលដើម្បីផ្ទៀងផ្ទាត់។

ផ្ទៀងផ្ទាត់ជានិច្ច កុំជឿភ្លាមៗ។

ដោយសារការកើនឡើងនៃការបោកប្រាស់ដោយសំឡេងក្លែងក្លាយ មនុស្សត្រូវបានណែនាំមិនឱ្យផ្ទេរប្រាក់ដោយផ្អែកលើការហៅជាសំឡេង បើទោះបីជាសំឡេងនោះស្តាប់ទៅដូចសាច់ញាតិក៏ដោយ។ ជំនួសមកវិញ ទូរស័ព្ទទៅលេខដើមវិញ ឬផ្ទៀងផ្ទាត់ព័ត៌មានតាមរយៈបណ្តាញជាច្រើន មុនពេលធ្វើប្រតិបត្តិការណាមួយ។

អ្នកជំនាញជាច្រើនក៏ណែនាំឱ្យបង្កើត "ពាក្យសម្ងាត់ខាងក្នុង" នៅក្នុងគ្រួសារ ឬអាជីវកម្មសម្រាប់ការផ្ទៀងផ្ទាត់ក្នុងស្ថានភាពមិនធម្មតា។

លើស​ពី​នេះ​ទៅ​ទៀត វា​ជា​ការ​ចាំបាច់​ក្នុង​ការ​កម្រិត​ការ​បង្ហោះ​វីដេអូ​ដែល​មាន​សំឡេង​ច្បាស់​លាស់​ទៅ​កាន់​ប្រព័ន្ធ​ផ្សព្វផ្សាយ​សង្គម ជា​ពិសេស​ខ្លឹមសារ​វែង។ ជាពិសេស ការព្រមាន និងការណែនាំយ៉ាងសកម្មគួរតែត្រូវបានផ្តល់ជូនដល់ក្រុមដែលងាយរងគ្រោះ ដូចជាមនុស្សចាស់ ឬអ្នកដែលមានកម្រិតលទ្ធភាពប្រើប្រាស់បច្ចេកវិទ្យា ព្រោះទាំងនេះគឺជាគោលដៅចម្បងសម្រាប់ការបោកប្រាស់បច្ចេកវិទ្យាខ្ពស់។

Deepfake Voice - Ảnh 3.

សំឡេង​របស់​គ្រួសារ មិត្តភ័ក្តិ និង​សហការី​ទាំងអស់​អាច​ត្រូវ​បាន​ក្លែងបន្លំ។

នៅក្នុងប្រទេសជាច្រើន អាជ្ញាធរបានចាប់ផ្តើមរឹតបន្តឹងបទប្បញ្ញត្តិនៃបច្ចេកវិទ្យាក្លែងបន្លំជ្រៅ តាមរយៈក្របខ័ណ្ឌច្បាប់ផ្ទាល់ខ្លួនរបស់ពួកគេ។

នៅសហរដ្ឋអាមេរិក រដ្ឋជាច្រើនបានហាមប្រាមការប្រើប្រាស់ការក្លែងបន្លំជ្រៅនៅក្នុងយុទ្ធនាការបោះឆ្នោត ឬសម្រាប់ការផ្សព្វផ្សាយព័ត៌មានមិនពិត។ សហភាពអឺរ៉ុប (EU) បានអនុម័តច្បាប់ AI ដោយតម្រូវឱ្យអង្គការមានតម្លាភាព និងផ្តល់ការព្រមានច្បាស់លាស់ ប្រសិនបើខ្លឹមសារត្រូវបានបង្កើតដោយប្រើបញ្ញាសិប្បនិម្មិត។

ទន្ទឹមនឹងនេះ នៅក្នុងប្រទេសវៀតណាម ទោះបីជាមិនមានបទប្បញ្ញត្តិជាក់លាក់ណាមួយសម្រាប់សំឡេងក្លែងក្លាយក៏ដោយ សកម្មភាពដែលពាក់ព័ន្ធអាចត្រូវបានកាត់ទោសក្រោមច្បាប់បច្ចុប្បន្ន ដោយមានការចោទប្រកាន់ដូចជាការក្លែងបន្លំ ការឈ្លានពានឯកជនភាព ឬការក្លែងបន្លំអត្តសញ្ញាណ។

ទោះជាយ៉ាងណាក៏ដោយ ការពិតគឺថាបច្ចេកវិទ្យាកំពុងអភិវឌ្ឍក្នុងល្បឿនលើសពីសមត្ថភាពត្រួតពិនិត្យរបស់ច្បាប់ ដែលបន្សល់ទុកនូវចន្លោះប្រហោងជាច្រើនដែលតួអង្គព្យាបាទអាចកេងប្រវ័ញ្ចបាន។

នៅពេលដែលសំឡេងលែងជាភស្តុតាង

សំឡេងធ្លាប់ត្រូវបានផ្សារភ្ជាប់យ៉ាងជិតស្និទ្ធជាមួយនិងភស្តុតាងដែលអាចទុកចិត្តបាន ប៉ុន្តែជាមួយនឹងសំឡេងក្លែងក្លាយ ពួកវាលែងជាភស្តុតាងដែលអាចទុកចិត្តបានទៀតហើយ។ ក្នុងយុគសម័យ AI បុគ្គលត្រូវការចំណេះដឹងផ្នែកការពារឌីជីថល ការផ្ទៀងផ្ទាត់សកម្ម និងការប្រុងប្រយ័ត្នជានិច្ច ពីព្រោះការហៅទូរសព្ទអាចជាអន្ទាក់។

ផាន់ ហៃដាង

ប្រភព៖ https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm


Kommentar (0)

សូមអធិប្បាយដើម្បីចែករំលែកអារម្មណ៍របស់អ្នក!

ប្រធានបទដូចគ្នា

ប្រភេទដូចគ្នា

កន្លែងកម្សាន្តបុណ្យណូអែល បង្កភាពចលាចលក្នុងចំណោមយុវវ័យនៅទីក្រុងហូជីមិញ ជាមួយនឹងដើមស្រល់ 7 ម៉ែត្រ
តើមានអ្វីនៅក្នុងផ្លូវ 100 ម៉ែត្រដែលបង្កឱ្យមានការភ្ញាក់ផ្អើលនៅថ្ងៃបុណ្យណូអែល?
ហួសចិត្ត​នឹង​ពិធី​មង្គលការ​ដ៏​អស្ចារ្យ​ដែល​ប្រារព្ធ​ឡើង​រយៈពេល​៧​ថ្ងៃ​យប់​នៅ Phu Quoc
ក្បួនដង្ហែរសំលៀកបំពាក់បុរាណ៖ ភាពរីករាយនៃផ្កាមួយរយ

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

Don Den – 'យ៉រមេឃ' ថ្មីរបស់ Thai Nguyen ទាក់ទាញអ្នកប្រមាញ់ពពកវ័យក្មេង

ព្រឹត្តិការណ៍បច្ចុប្បន្ន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល