បច្ចេកវិទ្យា Deepfake ធ្វើឱ្យបន្ទាត់រវាងពិត និងក្លែងក្លាយ ធ្វើឱ្យព្រិលៗយ៉ាងគ្រោះថ្នាក់
តើ Deepfake ជាអ្វី?
អ្នកបើកទូរសព្ទរបស់អ្នក ហើយរន្ធត់ចិត្តពេលឃើញ វីដេអូ មេរោគ៖ ទឹកមុខ និងសំឡេងរបស់អ្នកកំពុងថ្លែងសុន្ទរកថាដ៏ចម្រូងចម្រាសនៅក្នុងព្រឹត្តិការណ៍ដែលអ្នកមិនធ្លាប់ចូលរួម។ ទោះបីជាអ្នកដឹងថាមិនមែនជាអ្នកក៏ដោយ វីដេអូនេះគឺពិតជាគួរឱ្យសង្ស័យណាស់។ នេះមិនមែនជារឿងប្រឌិតបែបវិទ្យាសាស្ត្រទេ វាជាផលិតផលនៃការក្លែងបន្លំជ្រៅ បច្ចេកវិទ្យា AI ដែលអាចធ្វើឱ្យអ្នក "ធ្វើ" នូវអ្វីដែលអ្នកមិនធ្លាប់ធ្វើពីមុនមក។
នៅក្នុងយុគសម័យដែលការពិត និងភាពមិនពិតត្រូវបានធ្វើឱ្យព្រិលៗ ការក្លែងបន្លំជ្រៅមិនមែនគ្រាន់តែជាហ្គេមកម្សាន្តតាមអ៊ីនធឺណិតប៉ុណ្ណោះទេ។ វាអាចត្រូវបានកេងប្រវ័ញ្ចដើម្បីក្លែងបន្លំ បង្ខូចកេរ្តិ៍ឈ្មោះ បោកប្រាស់ និងសូម្បីតែគំរាមកំហែងដល់សុវត្ថិភាពផ្ទាល់ខ្លួន។ ដូច្នេះតើអ្វីទៅជាការក្លែងបន្លំជ្រៅ? ហើយតើយើងជាអ្នកប្រើធម្មតាគួរធ្វើអ្វីដើម្បីទទួលស្គាល់និងការពារខ្លួនយើង?
Deepfake គឺជាបច្ចេកវិទ្យាដែលប្រើការរៀនជ្រៅជ្រះ ដែលជាសាខានៃបញ្ញាសិប្បនិមិត្ត ដើម្បីបង្កើតរូបភាព វីដេអូ ឬការថតសំឡេងក្លែងក្លាយ ដែលមើលទៅមានលក្ខណៈប្រាកដនិយម ដែលវាពិបាកក្នុងការបែងចែកពីការពិត។
ជាសំខាន់ ប្រព័ន្ធនឹង "រៀន" រាប់រយ ឬសូម្បីតែរាប់ពាន់រូបភាព និងវីដេអូដើមរបស់មនុស្សម្នាក់ ដោយចាប់យកព័ត៌មានលម្អិតពីការដើរ ការបញ្ចេញទឹកមុខ រហូតដល់ការបញ្ចេញសំឡេង។ បន្ទាប់មក AI នឹងលាយបញ្ចូលចលនា ឬសំឡេងទាំងនេះទៅក្នុងខ្លឹមសារដើមណាមួយ ដែលធ្វើឱ្យតួអង្គក្នុងវីដេអូ ឬឧបករណ៍បំពងសំឡេងនៅក្នុងការថតសំឡេងហាក់ដូចជា "និយាយ" ពាក្យដែលពួកគេមិនដែលនិយាយ។
ថ្មីៗនេះ វីដេអូជាច្រើនត្រូវបានចែកចាយនៅលើ YouTube និងប្រព័ន្ធផ្សព្វផ្សាយសង្គមដែលបង្ហាញពី Barron Trump រៀបការជាមួយម្ចាស់ក្សត្រី Leonor នៃប្រទេសអេស្ប៉ាញក្នុងពិធីដ៏ថ្លៃថ្លាមួយ។ ទោះជាយ៉ាងណាក៏ដោយ នេះគឺជាផលិតផលនៃបញ្ញាសិប្បនិម្មិតទាំងស្រុង ដែលបង្កើតឡើងដោយប៉ុស្តិ៍ "គ្រួសារ Trump គួរឱ្យស្រឡាញ់" សម្រាប់គោលបំណងកម្សាន្ត។
ទោះបីជាវីដេអូទាំងនេះត្រូវបានដាក់ចំណងជើងថាត្រូវបានបង្កើតដោយប្រើ AI ប៉ុន្តែពួកគេនៅតែបង្កឱ្យមានការភាន់ច្រលំ និងចម្រូងចម្រាសក្នុងចំណោមសាធារណជន។
តើ Deepfake "រៀន" មុខ និងសំឡេងរបស់អ្នកយ៉ាងដូចម្តេច?
គិតពី AI ជាវិចិត្រករដែលមានល្បឿនលឿន និងជាអ្នកចម្រៀង "ធ្វើត្រាប់តាមមេ"។ ដើម្បីគូរមុខរបស់អ្នក វាគ្រាន់តែត្រូវការរូបថត ឬវីដេអូពីរបីវិនាទីប៉ុណ្ណោះ៖
ការរៀនមុខ៖ AI មើលយ៉ាងដិតដល់នូវរាល់ព័ត៌មានលម្អិតនៅក្នុងរូបថត៖ ចំងាយរវាងភ្នែករបស់អ្នក រូបរាងច្រមុះ និងមាត់របស់អ្នក ស្នាមជ្រួញនៅពេលអ្នកញញឹម។ បន្ទាប់មកវា "គូរ" ដែលប្រឈមមុខនឹងស៊ុមផ្សេងទៀត ដូចជាវិចិត្រករចម្លងគំនូរព្រាង ហើយបន្ថែមពណ៌ និងព័ត៌មានលម្អិត។ លទ្ធផលគឺមុខដែលលេចចេញដោយធម្មជាតិក្នុងវីដេអូដើម ទោះបីជាអ្នកមិនធ្លាប់នៅទីនោះក៏ដោយ។
ការរៀនសំឡេង៖ AI ស្តាប់អ្នកពីរបីវិនាទី ដោយចងចាំសំឡេង ចង្វាក់ និងសម្លេងរបស់អ្នក។ បន្ទាប់មកវា "ច្រៀង" ត្រឡប់មកវិញនូវខ្លឹមសារដូចគ្នា ដូចជាអ្នកចម្រៀង Cover ប៉ុន្តែរក្សាសំឡេងរបស់អ្នក "ពិតប្រាកដ"។
សូមអរគុណចំពោះវា ដោយគ្រាន់តែរូបថត 1-2 និងសំឡេង 3-5 វិនាទី ការក្លែងបន្លំជ្រៅអាច "ធ្វើត្រាប់តាម" អ្នកដើម្បីបង្កើតវីដេអូក្លែងក្លាយ ឬអូឌីយ៉ូ។ បច្ចេកវិទ្យានេះគឺមានល្បឿនលឿន ងាយស្រួល និង... បន្តិច "វេទមន្ត" ប៉ុន្តែដោយសារតែនោះ វាងាយស្រួលណាស់ក្នុងការរំលោភបំពានលើអត្តសញ្ញាណក្លែងក្លាយ និងផ្សព្វផ្សាយព័ត៌មានមិនពិត។
តើការក្លែងបន្លំជ្រៅមានគ្រោះថ្នាក់ប៉ុណ្ណា?
Deepfake មិនមែនគ្រាន់តែជាការកម្សាន្ត ឬដើម្បីបំពេញការចង់ដឹងចង់ឃើញប៉ុណ្ណោះទេ វាក៏បង្កគ្រោះថ្នាក់ជាច្រើនដល់បុគ្គល និងសង្គមផងដែរ៖
ការក្លែងបន្លំ ការក្លែងបន្លំផ្នែកហិរញ្ញវត្ថុ៖ អ្នកក្លែងបន្លំអាចប្រើសំឡេងក្លែងបន្លំយ៉ាងជ្រៅ ដើម្បីក្លែងធ្វើជាថៅកែ ឬសាច់ញាតិហៅមកសុំផ្ទេរប្រាក់ជាបន្ទាន់។ ត្រឹមតែពីរបីវិនាទីនៃការថតសំឡេងពិតរបស់អ្នក ទូរស័ព្ទស្តាប់ទៅដូចជា "ចៅហ្វាយ" ឬ "ឪពុកម្តាយ" ដាស់តឿន ជនរងគ្រោះអាចបាត់បង់អ្នកយាមបានយ៉ាងងាយ។
ឧទាហរណ៍៖ ក្នុងឆ្នាំ 2019 នាយកប្រតិបត្តិចក្រភពអង់គ្លេសម្នាក់ត្រូវបានបោកបញ្ឆោតឱ្យផ្ទេរប្រាក់ €220,000 បន្ទាប់ពីទទួលបានការហៅទូរស័ព្ទក្លែងក្លាយដោយក្លែងបន្លំជានាយកប្រតិបត្តិនៃក្រុមហ៊ុនមេរបស់គាត់។
ការបំពានកិត្តិយស ការបរិហារកេរ្តិ៍បុគ្គល៖ វីដេអូនៃមុខដែលត្រូវបានដាក់បញ្ចូលលើឈុតដ៏រសើប (ខ្សែភាពយន្តអាសអាភាស ឈុតហិង្សា។ នៅពេលអនឡាញ វីដេអូទាំងនេះពិបាកនឹងលុបចេញទាំងស្រុង ទោះបីជាត្រូវបានបង្ហាញថាក្លែងក្លាយក៏ដោយ។
ការផ្សព្វផ្សាយព័ត៌មានក្លែងក្លាយ បំភ័ន្តមតិសាធារណៈ៖ នៅក្នុងបរិបទ នយោបាយ ដ៏រសើប វីដេអូក្លែងក្លាយរបស់មេដឹកនាំនិយាយអ្វីដែលពួកគេមិនធ្លាប់និយាយ អាចបណ្តាលឱ្យមានការភ័ន្តច្រឡំ និងបាត់បង់ទំនុកចិត្តលើប្រព័ន្ធផ្សព្វផ្សាយ និងរដ្ឋាភិបាល។
ការគំរាមកំហែងដល់សន្តិសុខផ្ទាល់ខ្លួន និងជាតិ៖ ជាមួយនឹងបច្ចេកវិទ្យាទំនើបគ្រប់គ្រាន់ តួអង្គអាក្រក់អាចផ្សព្វផ្សាយវីដេអូក្លែងក្លាយនៃភាពអាសន្នក្លែងក្លាយ (ដូចជាសង្គ្រាម គ្រោះមហន្តរាយ) ញុះញង់ឱ្យមានការភ័យស្លន់ស្លោ និងភាពវឹកវរក្នុងសង្គម។ ភ្នាក់ងារសន្តិសុខក៏ប្រឈមមុខនឹងបញ្ហាប្រឈមខ្លាំងក្នុងការបែងចែករវាងព័ត៌មានពិត និងព័ត៌មានក្លែងក្លាយ នៅពេលប្រឈមមុខនឹងការស៊ើបការណ៍សម្ងាត់ដ៏គ្រោះថ្នាក់។
ខណៈពេលដែលការក្លែងបន្លំជ្រៅបើកឱកាសជាច្រើនសម្រាប់ការកម្សាន្ត និងការច្នៃប្រឌិត ពួកគេក៏បានក្លាយជា "អាវុធ" ដ៏ទំនើប ដែលទាមទារឱ្យទាំងបុគ្គល និងអាជ្ញាធរមានការប្រុងប្រយ័ត្ន។ នៅក្នុងផ្នែកខាងក្រោម យើងនឹងរៀនពីរបៀបការពារខ្លួនពីគ្រោះថ្នាក់នេះ។
តើធ្វើដូចម្តេចដើម្បីការពារខ្លួនអ្នកពីការក្លែងបន្លំជ្រៅ?
ខណៈពេលដែលវាមិនអាចទៅរួចទេក្នុងការជៀសវាងទាំងស្រុងនូវហានិភ័យនៃការ "កំណត់គោលដៅ" ដោយការក្លែងបន្លំជ្រៅ អ្នកនៅតែអាចកាត់បន្ថយហានិភ័យតាមវិធីសាមញ្ញៗ ប៉ុន្តែមានប្រសិទ្ធភាពមួយចំនួន៖
កំណត់ការចែករំលែករូបថត និងវីដេអូផ្ទាល់ខ្លួនជាសាធារណៈ៖ ទិន្នន័យមុខ និងសំឡេងកាន់តែច្រើនដែលអ្នកដាក់នៅលើប្រព័ន្ធផ្សព្វផ្សាយសង្គម AI កាន់តែច្រើនត្រូវបង្កើតការក្លែងបន្លំកាន់តែជ្រៅ។ រក្សាការកំណត់របស់អ្នកជាឯកជន ហើយគិតឱ្យបានហ្មត់ចត់មុនពេលបង្ហោះ។
ប្រយ័ត្នជាមួយការហៅទូរសព្ទ និងវីដេអូគួរឱ្យសង្ស័យ៖ ប្រសិនបើអ្នកទទួលការហៅទូរសព្ទ ឬវីដេអូពីនរណាម្នាក់ដែលអ្នកស្គាល់ ប៉ុន្តែវាមានខ្លឹមសារមិនធម្មតា (ដូចជាសំណើផ្ទេរប្រាក់ សេចក្តីថ្លែងការណ៍ចម្លែកជាដើម) កុំជឿភ្លាមៗ។ ផ្ទៀងផ្ទាត់ដោយការហៅទូរសព្ទដោយផ្ទាល់ ឬផ្ញើសារតាមរយៈប៉ុស្តិ៍ផ្សេង។
ប្រើឧបករណ៍ស្វែងរកក្លែងក្លាយ៖ វេទិកា និងក្រុមហ៊ុនសន្តិសុខជាច្រើនបានបង្កើតឧបករណ៍ដែលអាចពិនិត្យមើលរូបភាព/វីដេអូសម្រាប់សញ្ញានៃឧបាយកល AI ។ ខណៈពេលដែលពួកគេមិនល្អឥតខ្ចោះ ពួកគេគឺជាជំហានដំបូងដែលមានប្រយោជន៍។
រក្សាដានឌីជីថលរបស់អ្នកឱ្យមានសុវត្ថិភាព៖ កុំចែករំលែកការថតសំឡេង ឬវីដេអូនៃមុខរបស់អ្នកនៅក្នុងបរិយាកាសដែលមិនអាចគ្រប់គ្រងបាន (ដូចជា chatbots ចម្លែក ឬកម្មវិធីដែលមិនស្គាល់ប្រភពដើម)។ សូម្បីតែការថតខ្លីមួយអាចត្រូវបានដកស្រង់ដើម្បីក្លែងខ្លួនអ្នក។
ត្រូវជូនដំណឹង និងប្រុងប្រយ័ត្ន៖ កុំភ័យស្លន់ស្លោ ប៉ុន្តែត្រូវយល់៖ ការក្លែងបន្លំជ្រៅបានហួសពីបច្ចេកវិទ្យាកម្សាន្ត។ ចែករំលែកចំណេះដឹងនេះជាមួយមនុស្សជាទីស្រលាញ់របស់អ្នក ជាពិសេសមនុស្សចាស់ និងកុមារ - ក្រុមដែលងាយចាញ់បោកដោយមាតិកា "ពិត" មើលទៅ។
អ្នកមិនអាចបញ្ឈប់ AI ពីការឈានទៅមុខបានទេ ប៉ុន្តែអ្នកប្រាកដជាអាចការពារខ្លួនអ្នកដោយការយល់ដឹង ការប្រុងប្រយ័ត្ន និងសកម្ម។ នៅក្នុង ពិភពលោក ដែលការពិត និងភាពមិនពិតគ្រាន់តែចុចពីរបីដងប៉ុណ្ណោះ ចំណេះដឹងគឺជាខែលការពារដ៏ល្អបំផុត។
ប្រភព៖ https://tuoitre.vn/deepfake-cong-nghe-lam-mo-ranh-gioi-that-gia-20250528100957532.htm
Kommentar (0)