Vietnam.vn - Nền tảng quảng bá Việt Nam

Deepfake៖ បច្ចេកវិទ្យាធ្វើឱ្យព្រិលបន្ទាត់រវាងពិត និងក្លែងក្លាយ

អ្នកអាច 'និយាយ' អ្វីដែលអ្នកមិនធ្លាប់និយាយ 'ធ្វើ' អ្វីដែលអ្នកមិនធ្លាប់ធ្វើដោយគ្រាន់តែរូបថត។ Deepfakes កំពុងធ្វើឱ្យព្រិលបន្ទាត់រវាងពិត និងក្លែងក្លាយដល់កម្រិតគ្រោះថ្នាក់។

Báo Tuổi TrẻBáo Tuổi Trẻ28/05/2025

Deepfake: Công nghệ làm mờ ranh giới thật - giả - Ảnh 1.

បច្ចេកវិទ្យា Deepfake ធ្វើឱ្យបន្ទាត់រវាងពិត និងក្លែងក្លាយ ធ្វើឱ្យព្រិលៗយ៉ាងគ្រោះថ្នាក់

តើ Deepfake ជាអ្វី?

អ្នកបើកទូរសព្ទរបស់អ្នក ហើយរន្ធត់ចិត្តពេលឃើញ វីដេអូ មេរោគ៖ ទឹកមុខ និងសំឡេងរបស់អ្នកកំពុងថ្លែងសុន្ទរកថាដ៏ចម្រូងចម្រាសនៅក្នុងព្រឹត្តិការណ៍ដែលអ្នកមិនធ្លាប់ចូលរួម។ ទោះបីជាអ្នកដឹងថាមិនមែនជាអ្នកក៏ដោយ វីដេអូនេះគឺពិតជាគួរឱ្យសង្ស័យណាស់។ នេះមិនមែនជារឿងប្រឌិតបែបវិទ្យាសាស្ត្រទេ វាជាផលិតផលនៃការក្លែងបន្លំជ្រៅ បច្ចេកវិទ្យា AI ដែលអាចធ្វើឱ្យអ្នក "ធ្វើ" នូវអ្វីដែលអ្នកមិនធ្លាប់ធ្វើពីមុនមក។

នៅក្នុងយុគសម័យដែលការពិត និងភាពមិនពិតត្រូវបានធ្វើឱ្យព្រិលៗ ការក្លែងបន្លំជ្រៅមិនមែនគ្រាន់តែជាហ្គេមកម្សាន្តតាមអ៊ីនធឺណិតប៉ុណ្ណោះទេ។ វាអាចត្រូវបានកេងប្រវ័ញ្ចដើម្បីក្លែងបន្លំ បង្ខូចកេរ្តិ៍ឈ្មោះ បោកប្រាស់ និងសូម្បីតែគំរាមកំហែងដល់សុវត្ថិភាពផ្ទាល់ខ្លួន។ ដូច្នេះតើអ្វីទៅជាការក្លែងបន្លំជ្រៅ? ហើយ​តើ​យើង​ជា​អ្នក​ប្រើ​ធម្មតា​គួរ​ធ្វើ​អ្វី​ដើម្បី​ទទួល​ស្គាល់​និង​ការពារ​ខ្លួន​យើង?

Deepfake គឺជាបច្ចេកវិទ្យាដែលប្រើការរៀនជ្រៅជ្រះ ដែលជាសាខានៃបញ្ញាសិប្បនិមិត្ត ដើម្បីបង្កើតរូបភាព វីដេអូ ឬការថតសំឡេងក្លែងក្លាយ ដែលមើលទៅមានលក្ខណៈប្រាកដនិយម ដែលវាពិបាកក្នុងការបែងចែកពីការពិត។

ជាសំខាន់ ប្រព័ន្ធនឹង "រៀន" រាប់រយ ឬសូម្បីតែរាប់ពាន់រូបភាព និងវីដេអូដើមរបស់មនុស្សម្នាក់ ដោយចាប់យកព័ត៌មានលម្អិតពីការដើរ ការបញ្ចេញទឹកមុខ រហូតដល់ការបញ្ចេញសំឡេង។ បន្ទាប់មក AI នឹងលាយបញ្ចូលចលនា ឬសំឡេងទាំងនេះទៅក្នុងខ្លឹមសារដើមណាមួយ ដែលធ្វើឱ្យតួអង្គក្នុងវីដេអូ ឬឧបករណ៍បំពងសំឡេងនៅក្នុងការថតសំឡេងហាក់ដូចជា "និយាយ" ពាក្យដែលពួកគេមិនដែលនិយាយ។

ថ្មីៗនេះ វីដេអូជាច្រើនត្រូវបានចែកចាយនៅលើ YouTube និងប្រព័ន្ធផ្សព្វផ្សាយសង្គមដែលបង្ហាញពី Barron Trump រៀបការជាមួយម្ចាស់ក្សត្រី Leonor នៃប្រទេសអេស្ប៉ាញក្នុងពិធីដ៏ថ្លៃថ្លាមួយ។ ទោះជាយ៉ាងណាក៏ដោយ នេះគឺជាផលិតផលនៃបញ្ញាសិប្បនិម្មិតទាំងស្រុង ដែលបង្កើតឡើងដោយប៉ុស្តិ៍ "គ្រួសារ Trump គួរឱ្យស្រឡាញ់" សម្រាប់គោលបំណងកម្សាន្ត។

ទោះបីជាវីដេអូទាំងនេះត្រូវបានដាក់ចំណងជើងថាត្រូវបានបង្កើតដោយប្រើ AI ប៉ុន្តែពួកគេនៅតែបង្កឱ្យមានការភាន់ច្រលំ និងចម្រូងចម្រាសក្នុងចំណោមសាធារណជន។

តើ Deepfake "រៀន" មុខ និងសំឡេងរបស់អ្នកយ៉ាងដូចម្តេច?

គិតពី AI ជាវិចិត្រករដែលមានល្បឿនលឿន និងជាអ្នកចម្រៀង "ធ្វើត្រាប់តាមមេ"។ ដើម្បីគូរមុខរបស់អ្នក វាគ្រាន់តែត្រូវការរូបថត ឬវីដេអូពីរបីវិនាទីប៉ុណ្ណោះ៖

ការរៀនមុខ៖ AI មើលយ៉ាងដិតដល់នូវរាល់ព័ត៌មានលម្អិតនៅក្នុងរូបថត៖ ចំងាយរវាងភ្នែករបស់អ្នក រូបរាងច្រមុះ និងមាត់របស់អ្នក ស្នាមជ្រួញនៅពេលអ្នកញញឹម។ បន្ទាប់មកវា "គូរ" ដែលប្រឈមមុខនឹងស៊ុមផ្សេងទៀត ដូចជាវិចិត្រករចម្លងគំនូរព្រាង ហើយបន្ថែមពណ៌ និងព័ត៌មានលម្អិត។ លទ្ធផល​គឺ​មុខ​ដែល​លេច​ចេញ​ដោយ​ធម្មជាតិ​ក្នុង​វីដេអូ​ដើម ទោះ​បី​ជា​អ្នក​មិន​ធ្លាប់​នៅ​ទីនោះ​ក៏ដោយ។

ការរៀនសំឡេង៖ AI ស្តាប់អ្នកពីរបីវិនាទី ដោយចងចាំសំឡេង ចង្វាក់ និងសម្លេងរបស់អ្នក។ បន្ទាប់មកវា "ច្រៀង" ត្រឡប់មកវិញនូវខ្លឹមសារដូចគ្នា ដូចជាអ្នកចម្រៀង Cover ប៉ុន្តែរក្សាសំឡេងរបស់អ្នក "ពិតប្រាកដ"។

សូមអរគុណចំពោះវា ដោយគ្រាន់តែរូបថត 1-2 និងសំឡេង 3-5 វិនាទី ការក្លែងបន្លំជ្រៅអាច "ធ្វើត្រាប់តាម" អ្នកដើម្បីបង្កើតវីដេអូក្លែងក្លាយ ឬអូឌីយ៉ូ។ បច្ចេកវិទ្យានេះគឺមានល្បឿនលឿន ងាយស្រួល និង... បន្តិច "វេទមន្ត" ប៉ុន្តែដោយសារតែនោះ វាងាយស្រួលណាស់ក្នុងការរំលោភបំពានលើអត្តសញ្ញាណក្លែងក្លាយ និងផ្សព្វផ្សាយព័ត៌មានមិនពិត។

តើការក្លែងបន្លំជ្រៅមានគ្រោះថ្នាក់ប៉ុណ្ណា?

Deepfake មិនមែនគ្រាន់តែជាការកម្សាន្ត ឬដើម្បីបំពេញការចង់ដឹងចង់ឃើញប៉ុណ្ណោះទេ វាក៏បង្កគ្រោះថ្នាក់ជាច្រើនដល់បុគ្គល និងសង្គមផងដែរ៖

ការក្លែងបន្លំ ការក្លែងបន្លំផ្នែកហិរញ្ញវត្ថុ៖ អ្នកក្លែងបន្លំអាចប្រើសំឡេងក្លែងបន្លំយ៉ាងជ្រៅ ដើម្បីក្លែងធ្វើជាថៅកែ ឬសាច់ញាតិហៅមកសុំផ្ទេរប្រាក់ជាបន្ទាន់។ ត្រឹមតែពីរបីវិនាទីនៃការថតសំឡេងពិតរបស់អ្នក ទូរស័ព្ទស្តាប់ទៅដូចជា "ចៅហ្វាយ" ឬ "ឪពុកម្តាយ" ដាស់តឿន ជនរងគ្រោះអាចបាត់បង់អ្នកយាមបានយ៉ាងងាយ។

ឧទាហរណ៍៖ ក្នុងឆ្នាំ 2019 នាយកប្រតិបត្តិចក្រភពអង់គ្លេសម្នាក់ត្រូវបានបោកបញ្ឆោតឱ្យផ្ទេរប្រាក់ €220,000 បន្ទាប់ពីទទួលបានការហៅទូរស័ព្ទក្លែងក្លាយដោយក្លែងបន្លំជានាយកប្រតិបត្តិនៃក្រុមហ៊ុនមេរបស់គាត់។

ការបំពានកិត្តិយស ការបរិហារកេរ្តិ៍បុគ្គល៖ វីដេអូនៃមុខដែលត្រូវបានដាក់បញ្ចូលលើឈុតដ៏រសើប (ខ្សែភាពយន្តអាសអាភាស ឈុតហិង្សា។ នៅពេលអនឡាញ វីដេអូទាំងនេះពិបាកនឹងលុបចេញទាំងស្រុង ទោះបីជាត្រូវបានបង្ហាញថាក្លែងក្លាយក៏ដោយ។

ការផ្សព្វផ្សាយព័ត៌មានក្លែងក្លាយ បំភ័ន្តមតិសាធារណៈ៖ នៅក្នុងបរិបទ នយោបាយ ដ៏រសើប វីដេអូក្លែងក្លាយរបស់មេដឹកនាំនិយាយអ្វីដែលពួកគេមិនធ្លាប់និយាយ អាចបណ្តាលឱ្យមានការភ័ន្តច្រឡំ និងបាត់បង់ទំនុកចិត្តលើប្រព័ន្ធផ្សព្វផ្សាយ និងរដ្ឋាភិបាល។

ការគំរាមកំហែងដល់សន្តិសុខផ្ទាល់ខ្លួន និងជាតិ៖ ជាមួយនឹងបច្ចេកវិទ្យាទំនើបគ្រប់គ្រាន់ តួអង្គអាក្រក់អាចផ្សព្វផ្សាយវីដេអូក្លែងក្លាយនៃភាពអាសន្នក្លែងក្លាយ (ដូចជាសង្គ្រាម គ្រោះមហន្តរាយ) ញុះញង់ឱ្យមានការភ័យស្លន់ស្លោ និងភាពវឹកវរក្នុងសង្គម។ ភ្នាក់ងារសន្តិសុខក៏ប្រឈមមុខនឹងបញ្ហាប្រឈមខ្លាំងក្នុងការបែងចែករវាងព័ត៌មានពិត និងព័ត៌មានក្លែងក្លាយ នៅពេលប្រឈមមុខនឹងការស៊ើបការណ៍សម្ងាត់ដ៏គ្រោះថ្នាក់។

ខណៈពេលដែលការក្លែងបន្លំជ្រៅបើកឱកាសជាច្រើនសម្រាប់ការកម្សាន្ត និងការច្នៃប្រឌិត ពួកគេក៏បានក្លាយជា "អាវុធ" ដ៏ទំនើប ដែលទាមទារឱ្យទាំងបុគ្គល និងអាជ្ញាធរមានការប្រុងប្រយ័ត្ន។ នៅក្នុងផ្នែកខាងក្រោម យើងនឹងរៀនពីរបៀបការពារខ្លួនពីគ្រោះថ្នាក់នេះ។

តើធ្វើដូចម្តេចដើម្បីការពារខ្លួនអ្នកពីការក្លែងបន្លំជ្រៅ?

ខណៈពេលដែលវាមិនអាចទៅរួចទេក្នុងការជៀសវាងទាំងស្រុងនូវហានិភ័យនៃការ "កំណត់គោលដៅ" ដោយការក្លែងបន្លំជ្រៅ អ្នកនៅតែអាចកាត់បន្ថយហានិភ័យតាមវិធីសាមញ្ញៗ ប៉ុន្តែមានប្រសិទ្ធភាពមួយចំនួន៖

កំណត់ការចែករំលែករូបថត និងវីដេអូផ្ទាល់ខ្លួនជាសាធារណៈ៖ ទិន្នន័យមុខ និងសំឡេងកាន់តែច្រើនដែលអ្នកដាក់នៅលើប្រព័ន្ធផ្សព្វផ្សាយសង្គម AI កាន់តែច្រើនត្រូវបង្កើតការក្លែងបន្លំកាន់តែជ្រៅ។ រក្សាការកំណត់របស់អ្នកជាឯកជន ហើយគិតឱ្យបានហ្មត់ចត់មុនពេលបង្ហោះ។

ប្រយ័ត្នជាមួយការហៅទូរសព្ទ និងវីដេអូគួរឱ្យសង្ស័យ៖ ប្រសិនបើអ្នកទទួលការហៅទូរសព្ទ ឬវីដេអូពីនរណាម្នាក់ដែលអ្នកស្គាល់ ប៉ុន្តែវាមានខ្លឹមសារមិនធម្មតា (ដូចជាសំណើផ្ទេរប្រាក់ សេចក្តីថ្លែងការណ៍ចម្លែកជាដើម) កុំជឿភ្លាមៗ។ ផ្ទៀងផ្ទាត់ដោយការហៅទូរសព្ទដោយផ្ទាល់ ឬផ្ញើសារតាមរយៈប៉ុស្តិ៍ផ្សេង។

ប្រើឧបករណ៍ស្វែងរកក្លែងក្លាយ៖ វេទិកា និងក្រុមហ៊ុនសន្តិសុខជាច្រើនបានបង្កើតឧបករណ៍ដែលអាចពិនិត្យមើលរូបភាព/វីដេអូសម្រាប់សញ្ញានៃឧបាយកល AI ។ ខណៈពេលដែលពួកគេមិនល្អឥតខ្ចោះ ពួកគេគឺជាជំហានដំបូងដែលមានប្រយោជន៍។

រក្សាដានឌីជីថលរបស់អ្នកឱ្យមានសុវត្ថិភាព៖ កុំចែករំលែកការថតសំឡេង ឬវីដេអូនៃមុខរបស់អ្នកនៅក្នុងបរិយាកាសដែលមិនអាចគ្រប់គ្រងបាន (ដូចជា chatbots ចម្លែក ឬកម្មវិធីដែលមិនស្គាល់ប្រភពដើម)។ សូម្បី​តែ​ការ​ថត​ខ្លី​មួយ​អាច​ត្រូវ​បាន​ដក​ស្រង់​ដើម្បី​ក្លែង​ខ្លួន​អ្នក​។

ត្រូវជូនដំណឹង និងប្រុងប្រយ័ត្ន៖ កុំភ័យស្លន់ស្លោ ប៉ុន្តែត្រូវយល់៖ ការក្លែងបន្លំជ្រៅបានហួសពីបច្ចេកវិទ្យាកម្សាន្ត។ ចែករំលែកចំណេះដឹងនេះជាមួយមនុស្សជាទីស្រលាញ់របស់អ្នក ជាពិសេសមនុស្សចាស់ និងកុមារ - ក្រុមដែលងាយចាញ់បោកដោយមាតិកា "ពិត" មើលទៅ។

អ្នកមិនអាចបញ្ឈប់ AI ពីការឈានទៅមុខបានទេ ប៉ុន្តែអ្នកប្រាកដជាអាចការពារខ្លួនអ្នកដោយការយល់ដឹង ការប្រុងប្រយ័ត្ន និងសកម្ម។ នៅក្នុង ពិភពលោក ដែលការពិត និងភាពមិនពិតគ្រាន់តែចុចពីរបីដងប៉ុណ្ណោះ ចំណេះដឹងគឺជាខែលការពារដ៏ល្អបំផុត។

ថាញ់

ប្រភព៖ https://tuoitre.vn/deepfake-cong-nghe-lam-mo-ranh-gioi-that-gia-20250528100957532.htm


Kommentar (0)

No data
No data
PIECES of HUE - បំណែកនៃ Hue
ទិដ្ឋភាព​វេទមន្ត​នៅ​លើ​ភ្នំ​តែ​ "ទ្រុង​" នៅ​ភូថូ
កោះចំនួន 3 នៅតំបន់កណ្តាលត្រូវបានគេប្រដូចទៅនឹងប្រទេសម៉ាល់ឌីវ ដែលទាក់ទាញភ្ញៀវទេសចរនៅរដូវក្តៅ
មើលទីក្រុងឆ្នេរសមុទ្រ Quy Nhon នៃ Gia Lai នៅពេលយប់
រូបភាពវាលស្រែរាបស្មើនៅភូថូ ជម្រាលថ្នមៗ ភ្លឺ និងស្រស់ស្អាតដូចកញ្ចក់មុនរដូវដាំដុះ
រោងចក្រ Z121 បានត្រៀមខ្លួនរួចរាល់ហើយសម្រាប់រាត្រីចុងក្រោយនៃកាំជ្រួចអន្តរជាតិ
ទស្សនាវដ្ដីទេសចរណ៍ដ៏ល្បីល្បាញសរសើររូងភ្នំ Son Doong ថាជា "អស្ចារ្យបំផុតនៅលើភពផែនដី"
ល្អាង​អាថ៌កំបាំង​ទាក់ទាញ​ភ្ញៀវ​ទេសចរ​លោក​ខាង​លិច​ដែល​ប្រដូច​ទៅ​នឹង 'ល្អាង Phong Nha' នៅ Thanh Hoa
ស្វែងយល់ពីសម្រស់កំណាព្យនៃឆ្នេរសមុទ្រ Vinh Hy
តើតែថ្លៃបំផុតនៅទីក្រុងហាណូយ ដែលមានតម្លៃជាង ១០លានដុង/គីឡូក្រាម កែច្នៃដោយរបៀបណា?

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

No videos available

ព័ត៌មាន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល