Vietnam.vn - Nền tảng quảng bá Việt Nam

Deepfake៖ បច្ចេកវិទ្យាធ្វើឱ្យព្រិលបន្ទាត់រវាងពិត និងក្លែងក្លាយ

អ្នកអាច 'និយាយ' អ្វីដែលអ្នកមិនធ្លាប់និយាយ 'ធ្វើ' អ្វីដែលអ្នកមិនធ្លាប់ធ្វើដោយគ្រាន់តែរូបថត។ Deepfakes កំពុងធ្វើឱ្យព្រិលបន្ទាត់រវាងពិត និងក្លែងក្លាយដល់កម្រិតគ្រោះថ្នាក់។

Báo Tuổi TrẻBáo Tuổi Trẻ28/05/2025

Deepfake: Công nghệ làm mờ ranh giới thật - giả - Ảnh 1.

បច្ចេកវិទ្យា Deepfake ធ្វើឱ្យបន្ទាត់រវាងពិត និងក្លែងក្លាយ ធ្វើឱ្យព្រិលៗយ៉ាងគ្រោះថ្នាក់

តើ Deepfake ជាអ្វី?

អ្នកបើកទូរសព្ទរបស់អ្នក ហើយរន្ធត់ចិត្តពេលឃើញ វីដេអូ មេរោគ៖ ទឹកមុខ និងសំឡេងរបស់អ្នកធ្វើសុន្ទរកថាដ៏ចម្រូងចម្រាសនៅក្នុងព្រឹត្តិការណ៍ដែលអ្នកមិនធ្លាប់ចូលរួម។ ទោះបីជាខ្ញុំដឹងថាមិនមែនជាខ្ញុំក៏ដោយ ក៏វីដេអូនេះពិតជាគួរឱ្យសង្ស័យណាស់។ នេះមិនមែនជាភាពយន្តបែបវិទ្យាសាស្ត្រទេ ប៉ុន្តែជាផលិតផលនៃបច្ចេកវិទ្យា AI ក្លែងក្លាយ ដែលអាចធ្វើឱ្យអ្នក "ធ្វើ" នូវអ្វីដែលអ្នកមិនធ្លាប់ធ្វើពីមុនមក។

នៅក្នុងយុគសម័យដែលការពិត និងភាពមិនពិតកំពុងធ្វើឱ្យព្រិលៗ ការក្លែងបន្លំជ្រៅគឺច្រើនជាងការកម្សាន្តតាមអ៊ីនធឺណិត។ វាអាចត្រូវបានប្រើដើម្បីក្លែងបន្លំ បង្ខូចកេរ្តិ៍ឈ្មោះ បន្លំ និងសូម្បីតែគំរាមកំហែងដល់សុវត្ថិភាពផ្ទាល់ខ្លួន។ ដូច្នេះតើអ្វីទៅជាការក្លែងបន្លំយ៉ាងពិតប្រាកដ? ហើយ​តើ​យើង​ជា​អ្នក​ប្រើ​ធម្មតា​គួរ​ធ្វើ​អ្វី​ដើម្បី​ទទួល​ស្គាល់​និង​ការពារ​ខ្លួន​យើង?

Deepfake គឺជាបច្ចេកវិទ្យាដែលប្រើការរៀនសូត្រជ្រៅ ដែលជាសាខានៃបញ្ញាសិប្បនិមិត្ត ដើម្បីបង្កើតរូបភាព វីដេអូ ឬការថតសំឡេងក្លែងក្លាយ ដែលមើលទៅមានលក្ខណៈប្រាកដនិយម ដែលវាពិបាកក្នុងការបែងចែកពីការពិត។

ជាសំខាន់ ប្រព័ន្ធនឹង "រៀន" រាប់រយ សូម្បីតែរូបថត និងវីដេអូដើមរាប់ពាន់របស់មនុស្សម្នាក់ ដោយចាប់យកព័ត៌មានលម្អិតពីការដើរ ការបញ្ចេញទឹកមុខ រហូតដល់ការបញ្ចេញសំឡេង។ បន្ទាប់មក AI បញ្ចូលគ្នានូវចលនា ឬសំឡេងទាំងនេះទៅក្នុងខ្លឹមសារដើមណាមួយ ដែលធ្វើឱ្យតួអង្គនៅក្នុងវីដេអូ ឬវាគ្មិននៅក្នុងការថតនោះហាក់ដូចជា "និយាយ" ពាក្យដែលពួកគេមិនដែលនិយាយ។

ថ្មីៗ​នេះ វីដេអូ​មួយ​ចំនួន​បាន​ល្បី​ពេញ​បណ្ដាញ​សង្គម YouTube និង​បណ្ដាញ​សង្គម​ដែល​បង្ហាញ​ពី Barron Trump រៀប​អភិសេក​ជាមួយ​ម្ចាស់​ក្សត្រី Leonor នៃ​ប្រទេស​អេស្ប៉ាញ ក្នុង​ពិធី​ដ៏​ថ្លៃថ្លា។ ទោះជាយ៉ាងណាក៏ដោយ នេះគឺជាផលិតផលនៃបញ្ញាសិប្បនិម្មិតទាំងស្រុង ដែលបង្កើតឡើងដោយប៉ុស្តិ៍ "គ្រួសារ Trump គួរឱ្យស្រឡាញ់" សម្រាប់គោលបំណងកម្សាន្ត។

ទោះបីជាវីដេអូទាំងនេះត្រូវបានដាក់ចំណងជើងថាត្រូវបានបង្កើតដោយប្រើ AI ប៉ុន្តែពួកគេនៅតែបង្កឱ្យមានការភាន់ច្រលំ និងចម្រូងចម្រាសក្នុងចំណោមសាធារណជន។

តើ Deepfake "រៀន" មុខ និងសំឡេងរបស់អ្នកយ៉ាងដូចម្តេច?

គិតពី AI ជាវិចិត្រករដែលមានល្បឿនលឿន និងជាអ្នកចម្រៀង "ធ្វើត្រាប់តាមមេ"។ ដើម្បីគូរមុខរបស់អ្នក វាចំណាយពេលត្រឹមតែរូបថត ឬវីដេអូពីរបីវិនាទីប៉ុណ្ណោះ៖

ការរៀនមុខ៖ AI មើលយ៉ាងជិតគ្រប់ព័ត៌មានលម្អិតនៅក្នុងរូបថត៖ ចម្ងាយភ្នែក ច្រមុះ និងមាត់ ស្នាមជ្រួញនៅពេលអ្នកញញឹម។ បន្ទាប់មកវា "គូរឡើងវិញ" ដែលប្រឈមមុខនឹងស៊ុមមួយផ្សេងទៀត ដូចជាវិចិត្រករចម្លងគំនូរព្រាង ហើយបន្ថែមពណ៌ និងព័ត៌មានលម្អិត។ លទ្ធផល​គឺ​ថា​មុខ​របស់​អ្នក​មើល​ទៅ​ដូច​ជា​ធម្មជាតិ​ក្នុង​វីដេអូ​ដើម ទោះ​បី​ជា​អ្នក​មិន​ដែល​នៅ​ទីនោះ​ក៏ដោយ។

ការរៀនសំឡេង៖ AI ស្តាប់អ្នកនិយាយពីរបីវិនាទី ចងចាំសំឡេង ចង្វាក់ និងសម្លេង។ បន្ទាប់មកវា "ច្រៀង" ម្តងទៀតជាមួយនឹងខ្លឹមសារថ្មី ដូចជាអ្នកចម្រៀង Cover ប៉ុន្តែរក្សាសំឡេងរបស់អ្នក "គុណភាព"។

អរគុណចំពោះវា ដោយគ្រាន់តែរូបថត 1-2 និងថតសំឡេង 3-5 វិនាទី ការក្លែងបន្លំជ្រៅអាច "ធ្វើត្រាប់តាម" អ្នកដើម្បីបង្កើតវីដេអូក្លែងក្លាយ ឬអូឌីយ៉ូ។ បច្ចេកវិទ្យានេះគឺមានល្បឿនលឿន ងាយស្រួល និង... បន្តិច "វេទមន្ត" ប៉ុន្តែដោយសារតែនោះ វាងាយស្រួលណាស់ក្នុងការរំលោភបំពានលើអត្តសញ្ញាណក្លែងក្លាយ និងផ្សព្វផ្សាយព័ត៌មានមិនពិត។

តើការក្លែងបន្លំជ្រៅមានគ្រោះថ្នាក់ប៉ុណ្ណា?

Deepfake មិនមែនគ្រាន់តែជាការកម្សាន្ត ឬដើម្បីបំពេញការចង់ដឹងចង់ឃើញប៉ុណ្ណោះទេ វាក៏បង្កគ្រោះថ្នាក់ជាច្រើនដល់បុគ្គល និងសង្គមផងដែរ៖

ការក្លែងបន្លំ ការក្លែងបន្លំផ្នែកហិរញ្ញវត្ថុ៖ អ្នកក្លែងបន្លំអាចប្រើសំឡេងក្លែងបន្លំយ៉ាងជ្រៅ ដើម្បីក្លែងធ្វើជាថៅកែ ឬសាច់ញាតិហៅមកសុំផ្ទេរប្រាក់ជាបន្ទាន់។ គ្រាន់តែពីរបីវិនាទីនៃការថតសំឡេងពិតរបស់អ្នក ទូរស័ព្ទស្តាប់ទៅដូចជា "ចៅហ្វាយ" ឬ "ឪពុកម្តាយ" ដាស់តឿន ជនរងគ្រោះងាយនឹងចាប់បានយ៉ាងងាយ។

ឧទាហរណ៍៖ ក្នុងឆ្នាំ 2019 នាយកប្រតិបត្តិចក្រភពអង់គ្លេសម្នាក់ត្រូវបានបោកបញ្ឆោតឱ្យផ្ទេរប្រាក់ €220,000 បន្ទាប់ពីទទួលបានការហៅទូរស័ព្ទក្លែងក្លាយដោយក្លែងបន្លំជានាយកប្រតិបត្តិនៃក្រុមហ៊ុនមេរបស់គាត់។

ការបំពានកិត្តិយស ការបរិហារកេរ្តិ៍បុគ្គល៖ វីដេអូនៃមុខដែលត្រូវបានដាក់បញ្ចូលលើឈុតដ៏រសើប (ខ្សែភាពយន្តអាសអាភាស ឈុតហិង្សា។ នៅពេលដែលមានអ៊ីនធឺណិត វីដេអូទាំងនេះពិបាកនឹងលុបចេញទាំងស្រុង ទោះបីជាមានភស្តុតាងក្លែងក្លាយក៏ដោយ។

ការផ្សព្វផ្សាយព័ត៌មានក្លែងក្លាយ បំភ័ន្តមតិសាធារណៈ៖ នៅក្នុងបរិបទ នយោបាយ ដ៏រសើប វីដេអូក្លែងក្លាយរបស់មេដឹកនាំនិយាយអ្វីដែលពួកគេមិនធ្លាប់និយាយ អាចបណ្តាលឱ្យមានការភ័ន្តច្រឡំ និងបាត់បង់ទំនុកចិត្តលើប្រព័ន្ធផ្សព្វផ្សាយ និងរដ្ឋាភិបាល។

ការគំរាមកំហែងដល់សន្តិសុខផ្ទាល់ខ្លួន និងជាតិ៖ ជាមួយនឹងបច្ចេកវិទ្យាទំនើបគ្រប់គ្រាន់ មនុស្សអាក្រក់អាចផ្សព្វផ្សាយវីដេអូក្លែងបន្លំយ៉ាងជ្រៅអំពីការសង្គ្រោះបន្ទាន់ក្លែងក្លាយ (ដូចជាសង្គ្រាម គ្រោះមហន្តរាយ) ញុះញង់ឱ្យមានការភ័យស្លន់ស្លោ និងភាពវឹកវរក្នុងសង្គម។ ភ្នាក់ងារសន្តិសុខក៏ប្រឈមមុខនឹងបញ្ហាធំមួយក្នុងការបែងចែករវាងព័ត៌មានស៊ើបការណ៍សម្ងាត់គ្រោះថ្នាក់ពិត និងក្លែងក្លាយ។

ខណៈពេលដែលការក្លែងបន្លំជ្រៅបើកឱកាសជាច្រើនសម្រាប់ការកម្សាន្ត និងការច្នៃប្រឌិត ពួកគេក៏ក្លាយជា "អាវុធ" ដ៏ទំនើប ដែលទាមទារឱ្យទាំងបុគ្គល និងអាជ្ញាធរមានការប្រុងប្រយ័ត្ន។ នៅក្នុងផ្នែកខាងក្រោម យើងនឹងរៀនពីរបៀបការពារខ្លួនពីគ្រោះថ្នាក់នេះ។

តើធ្វើដូចម្តេចដើម្បីការពារខ្លួនអ្នកពីការក្លែងបន្លំជ្រៅ?

ខណៈពេលដែលវាមិនអាចទៅរួចទេក្នុងការជៀសវាងទាំងស្រុងនូវហានិភ័យនៃការ "កំណត់គោលដៅ" ដោយការក្លែងបន្លំជ្រៅ អ្នកនៅតែអាចកាត់បន្ថយហានិភ័យតាមវិធីសាមញ្ញៗ ប៉ុន្តែមានប្រសិទ្ធភាពមួយចំនួន៖

កំណត់ការចែករំលែករូបថត និងវីដេអូផ្ទាល់ខ្លួនជាសាធារណៈ៖ ទិន្នន័យមុខ និងសំឡេងកាន់តែច្រើនដែលអ្នកបង្ហោះនៅលើបណ្តាញសង្គម AI មានសម្ភារៈកាន់តែច្រើនដើម្បីបង្កើតភាពក្លែងក្លាយ។ រក្សាវាទុកជាឯកជន ហើយគិតមុនពេលអ្នកបង្ហោះ។

សូមប្រយ័ត្នជាមួយការហៅទូរសព្ទ និងវីដេអូដែលគួរឱ្យសង្ស័យ៖ ប្រសិនបើអ្នកទទួលការហៅទូរសព្ទ ឬវីដេអូពីនរណាម្នាក់ដែលអ្នកស្គាល់ ប៉ុន្តែមានខ្លឹមសារមិនធម្មតា (ដូចជាសំណើផ្ទេរប្រាក់ សេចក្តីថ្លែងការណ៍ចម្លែកជាដើម) កុំជឿវា។ សូមផ្ទៀងផ្ទាត់ដោយការហៅទូរសព្ទដោយផ្ទាល់ ឬផ្ញើសារតាមរយៈប៉ុស្តិ៍ផ្សេងទៀត។

ប្រើឧបករណ៍ស្វែងរកក្លែងក្លាយ៖ វេទិកា និងក្រុមហ៊ុនសន្តិសុខជាច្រើនបានបង្កើតឧបករណ៍ដើម្បីពិនិត្យមើលរូបភាព/វីដេអូសម្រាប់សញ្ញានៃការជ្រៀតជ្រែក AI ។ ខណៈពេលដែលមិនល្អឥតខ្ចោះ ពួកគេគឺជាជំហានដំបូងដ៏មានប្រយោជន៍សម្រាប់ការយល់ដឹង។

រក្សាដានឌីជីថលរបស់អ្នកឱ្យមានសុវត្ថិភាព៖ កុំចែករំលែកការថតសំឡេង ឬវីដេអូជាមួយមុខរបស់អ្នកក្នុងបរិយាកាសដែលមិនមានការគ្រប់គ្រង (ដូចជា chatbots ចម្លែក ឬកម្មវិធីដែលមិនស្គាល់ប្រភពដើម)។ ការថតសំឡេងខ្លីក៏អាចត្រូវបានទាញយកដើម្បីក្លែងបន្លំអ្នកផងដែរ។

ត្រូវជូនដំណឹង និងប្រុងប្រយ័ត្ន៖ កុំភ័យស្លន់ស្លោ ប៉ុន្តែត្រូវយល់៖ ការក្លែងបន្លំជ្រៅបានហួសពីបច្ចេកវិទ្យាកម្សាន្ត។ សូមចែករំលែកចំណេះដឹងនេះទៅកាន់មនុស្សជាទីស្រលាញ់របស់អ្នក ជាពិសេសមនុស្សចាស់ និងកុមារ - ក្រុមដែលងាយចាញ់បោកដោយមាតិកាដែលមើលទៅ "ពិតប្រាកដ" ។

អ្នកមិនអាចបញ្ឈប់ AI ពីការជឿនលឿនបានទេ ប៉ុន្តែអ្នកអាចការពារខ្លួនអ្នកដោយការយល់ដឹង ការប្រុងប្រយ័ត្ន និងសកម្ម។ នៅក្នុង ពិភពលោក ដែលការពិត និងភាពមិនពិតគ្រាន់តែចុចពីរបីដងប៉ុណ្ណោះ ចំណេះដឹងគឺជាខែលការពារដ៏ល្អបំផុត។

ថាញ់

ប្រភព៖ https://tuoitre.vn/deepfake-cong-nghe-lam-mo-ranh-gioi-that-gia-20250528100957532.htm


Kommentar (0)

No data
No data

ប្រភេទដូចគ្នា

សត្វព្រៃនៅលើកោះ Cat Ba
ដំណើរចុងក្រោយនៅលើខ្ពង់រាបថ្ម
Cat Ba - ចម្រៀងនៃរដូវក្តៅ
ស្វែងរកភាគពាយព្យរបស់អ្នក។

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

No videos available

ព័ត៌មាន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល