បច្ចេកវិទ្យា Deepfake ធ្វើឱ្យបន្ទាត់រវាងពិត និងក្លែងក្លាយ ធ្វើឱ្យព្រិលៗយ៉ាងគ្រោះថ្នាក់
តើ Deepfake ជាអ្វី?
អ្នកបើកទូរសព្ទរបស់អ្នក ហើយរន្ធត់ចិត្តពេលឃើញ វីដេអូ មេរោគ៖ ទឹកមុខ និងសំឡេងរបស់អ្នកធ្វើសុន្ទរកថាដ៏ចម្រូងចម្រាសនៅក្នុងព្រឹត្តិការណ៍ដែលអ្នកមិនធ្លាប់ចូលរួម។ ទោះបីជាខ្ញុំដឹងថាមិនមែនជាខ្ញុំក៏ដោយ ក៏វីដេអូនេះពិតជាគួរឱ្យសង្ស័យណាស់។ នេះមិនមែនជាភាពយន្តបែបវិទ្យាសាស្ត្រទេ ប៉ុន្តែជាផលិតផលនៃបច្ចេកវិទ្យា AI ក្លែងក្លាយ ដែលអាចធ្វើឱ្យអ្នក "ធ្វើ" នូវអ្វីដែលអ្នកមិនធ្លាប់ធ្វើពីមុនមក។
នៅក្នុងយុគសម័យដែលការពិត និងភាពមិនពិតកំពុងធ្វើឱ្យព្រិលៗ ការក្លែងបន្លំជ្រៅគឺច្រើនជាងការកម្សាន្តតាមអ៊ីនធឺណិត។ វាអាចត្រូវបានប្រើដើម្បីក្លែងបន្លំ បង្ខូចកេរ្តិ៍ឈ្មោះ បន្លំ និងសូម្បីតែគំរាមកំហែងដល់សុវត្ថិភាពផ្ទាល់ខ្លួន។ ដូច្នេះតើអ្វីទៅជាការក្លែងបន្លំយ៉ាងពិតប្រាកដ? ហើយតើយើងជាអ្នកប្រើធម្មតាគួរធ្វើអ្វីដើម្បីទទួលស្គាល់និងការពារខ្លួនយើង?
Deepfake គឺជាបច្ចេកវិទ្យាដែលប្រើការរៀនសូត្រជ្រៅ ដែលជាសាខានៃបញ្ញាសិប្បនិមិត្ត ដើម្បីបង្កើតរូបភាព វីដេអូ ឬការថតសំឡេងក្លែងក្លាយ ដែលមើលទៅមានលក្ខណៈប្រាកដនិយម ដែលវាពិបាកក្នុងការបែងចែកពីការពិត។
ជាសំខាន់ ប្រព័ន្ធនឹង "រៀន" រាប់រយ សូម្បីតែរូបថត និងវីដេអូដើមរាប់ពាន់របស់មនុស្សម្នាក់ ដោយចាប់យកព័ត៌មានលម្អិតពីការដើរ ការបញ្ចេញទឹកមុខ រហូតដល់ការបញ្ចេញសំឡេង។ បន្ទាប់មក AI បញ្ចូលគ្នានូវចលនា ឬសំឡេងទាំងនេះទៅក្នុងខ្លឹមសារដើមណាមួយ ដែលធ្វើឱ្យតួអង្គនៅក្នុងវីដេអូ ឬវាគ្មិននៅក្នុងការថតនោះហាក់ដូចជា "និយាយ" ពាក្យដែលពួកគេមិនដែលនិយាយ។
ថ្មីៗនេះ វីដេអូមួយចំនួនបានល្បីពេញបណ្ដាញសង្គម YouTube និងបណ្ដាញសង្គមដែលបង្ហាញពី Barron Trump រៀបអភិសេកជាមួយម្ចាស់ក្សត្រី Leonor នៃប្រទេសអេស្ប៉ាញ ក្នុងពិធីដ៏ថ្លៃថ្លា។ ទោះជាយ៉ាងណាក៏ដោយ នេះគឺជាផលិតផលនៃបញ្ញាសិប្បនិម្មិតទាំងស្រុង ដែលបង្កើតឡើងដោយប៉ុស្តិ៍ "គ្រួសារ Trump គួរឱ្យស្រឡាញ់" សម្រាប់គោលបំណងកម្សាន្ត។
ទោះបីជាវីដេអូទាំងនេះត្រូវបានដាក់ចំណងជើងថាត្រូវបានបង្កើតដោយប្រើ AI ប៉ុន្តែពួកគេនៅតែបង្កឱ្យមានការភាន់ច្រលំ និងចម្រូងចម្រាសក្នុងចំណោមសាធារណជន។
តើ Deepfake "រៀន" មុខ និងសំឡេងរបស់អ្នកយ៉ាងដូចម្តេច?
គិតពី AI ជាវិចិត្រករដែលមានល្បឿនលឿន និងជាអ្នកចម្រៀង "ធ្វើត្រាប់តាមមេ"។ ដើម្បីគូរមុខរបស់អ្នក វាចំណាយពេលត្រឹមតែរូបថត ឬវីដេអូពីរបីវិនាទីប៉ុណ្ណោះ៖
ការរៀនមុខ៖ AI មើលយ៉ាងជិតគ្រប់ព័ត៌មានលម្អិតនៅក្នុងរូបថត៖ ចម្ងាយភ្នែក ច្រមុះ និងមាត់ ស្នាមជ្រួញនៅពេលអ្នកញញឹម។ បន្ទាប់មកវា "គូរឡើងវិញ" ដែលប្រឈមមុខនឹងស៊ុមមួយផ្សេងទៀត ដូចជាវិចិត្រករចម្លងគំនូរព្រាង ហើយបន្ថែមពណ៌ និងព័ត៌មានលម្អិត។ លទ្ធផលគឺថាមុខរបស់អ្នកមើលទៅដូចជាធម្មជាតិក្នុងវីដេអូដើម ទោះបីជាអ្នកមិនដែលនៅទីនោះក៏ដោយ។
ការរៀនសំឡេង៖ AI ស្តាប់អ្នកនិយាយពីរបីវិនាទី ចងចាំសំឡេង ចង្វាក់ និងសម្លេង។ បន្ទាប់មកវា "ច្រៀង" ម្តងទៀតជាមួយនឹងខ្លឹមសារថ្មី ដូចជាអ្នកចម្រៀង Cover ប៉ុន្តែរក្សាសំឡេងរបស់អ្នក "គុណភាព"។
អរគុណចំពោះវា ដោយគ្រាន់តែរូបថត 1-2 និងថតសំឡេង 3-5 វិនាទី ការក្លែងបន្លំជ្រៅអាច "ធ្វើត្រាប់តាម" អ្នកដើម្បីបង្កើតវីដេអូក្លែងក្លាយ ឬអូឌីយ៉ូ។ បច្ចេកវិទ្យានេះគឺមានល្បឿនលឿន ងាយស្រួល និង... បន្តិច "វេទមន្ត" ប៉ុន្តែដោយសារតែនោះ វាងាយស្រួលណាស់ក្នុងការរំលោភបំពានលើអត្តសញ្ញាណក្លែងក្លាយ និងផ្សព្វផ្សាយព័ត៌មានមិនពិត។
តើការក្លែងបន្លំជ្រៅមានគ្រោះថ្នាក់ប៉ុណ្ណា?
Deepfake មិនមែនគ្រាន់តែជាការកម្សាន្ត ឬដើម្បីបំពេញការចង់ដឹងចង់ឃើញប៉ុណ្ណោះទេ វាក៏បង្កគ្រោះថ្នាក់ជាច្រើនដល់បុគ្គល និងសង្គមផងដែរ៖
ការក្លែងបន្លំ ការក្លែងបន្លំផ្នែកហិរញ្ញវត្ថុ៖ អ្នកក្លែងបន្លំអាចប្រើសំឡេងក្លែងបន្លំយ៉ាងជ្រៅ ដើម្បីក្លែងធ្វើជាថៅកែ ឬសាច់ញាតិហៅមកសុំផ្ទេរប្រាក់ជាបន្ទាន់។ គ្រាន់តែពីរបីវិនាទីនៃការថតសំឡេងពិតរបស់អ្នក ទូរស័ព្ទស្តាប់ទៅដូចជា "ចៅហ្វាយ" ឬ "ឪពុកម្តាយ" ដាស់តឿន ជនរងគ្រោះងាយនឹងចាប់បានយ៉ាងងាយ។
ឧទាហរណ៍៖ ក្នុងឆ្នាំ 2019 នាយកប្រតិបត្តិចក្រភពអង់គ្លេសម្នាក់ត្រូវបានបោកបញ្ឆោតឱ្យផ្ទេរប្រាក់ €220,000 បន្ទាប់ពីទទួលបានការហៅទូរស័ព្ទក្លែងក្លាយដោយក្លែងបន្លំជានាយកប្រតិបត្តិនៃក្រុមហ៊ុនមេរបស់គាត់។
ការបំពានកិត្តិយស ការបរិហារកេរ្តិ៍បុគ្គល៖ វីដេអូនៃមុខដែលត្រូវបានដាក់បញ្ចូលលើឈុតដ៏រសើប (ខ្សែភាពយន្តអាសអាភាស ឈុតហិង្សា។ នៅពេលដែលមានអ៊ីនធឺណិត វីដេអូទាំងនេះពិបាកនឹងលុបចេញទាំងស្រុង ទោះបីជាមានភស្តុតាងក្លែងក្លាយក៏ដោយ។
ការផ្សព្វផ្សាយព័ត៌មានក្លែងក្លាយ បំភ័ន្តមតិសាធារណៈ៖ នៅក្នុងបរិបទ នយោបាយ ដ៏រសើប វីដេអូក្លែងក្លាយរបស់មេដឹកនាំនិយាយអ្វីដែលពួកគេមិនធ្លាប់និយាយ អាចបណ្តាលឱ្យមានការភ័ន្តច្រឡំ និងបាត់បង់ទំនុកចិត្តលើប្រព័ន្ធផ្សព្វផ្សាយ និងរដ្ឋាភិបាល។
ការគំរាមកំហែងដល់សន្តិសុខផ្ទាល់ខ្លួន និងជាតិ៖ ជាមួយនឹងបច្ចេកវិទ្យាទំនើបគ្រប់គ្រាន់ មនុស្សអាក្រក់អាចផ្សព្វផ្សាយវីដេអូក្លែងបន្លំយ៉ាងជ្រៅអំពីការសង្គ្រោះបន្ទាន់ក្លែងក្លាយ (ដូចជាសង្គ្រាម គ្រោះមហន្តរាយ) ញុះញង់ឱ្យមានការភ័យស្លន់ស្លោ និងភាពវឹកវរក្នុងសង្គម។ ភ្នាក់ងារសន្តិសុខក៏ប្រឈមមុខនឹងបញ្ហាធំមួយក្នុងការបែងចែករវាងព័ត៌មានស៊ើបការណ៍សម្ងាត់គ្រោះថ្នាក់ពិត និងក្លែងក្លាយ។
ខណៈពេលដែលការក្លែងបន្លំជ្រៅបើកឱកាសជាច្រើនសម្រាប់ការកម្សាន្ត និងការច្នៃប្រឌិត ពួកគេក៏ក្លាយជា "អាវុធ" ដ៏ទំនើប ដែលទាមទារឱ្យទាំងបុគ្គល និងអាជ្ញាធរមានការប្រុងប្រយ័ត្ន។ នៅក្នុងផ្នែកខាងក្រោម យើងនឹងរៀនពីរបៀបការពារខ្លួនពីគ្រោះថ្នាក់នេះ។
តើធ្វើដូចម្តេចដើម្បីការពារខ្លួនអ្នកពីការក្លែងបន្លំជ្រៅ?
ខណៈពេលដែលវាមិនអាចទៅរួចទេក្នុងការជៀសវាងទាំងស្រុងនូវហានិភ័យនៃការ "កំណត់គោលដៅ" ដោយការក្លែងបន្លំជ្រៅ អ្នកនៅតែអាចកាត់បន្ថយហានិភ័យតាមវិធីសាមញ្ញៗ ប៉ុន្តែមានប្រសិទ្ធភាពមួយចំនួន៖
កំណត់ការចែករំលែករូបថត និងវីដេអូផ្ទាល់ខ្លួនជាសាធារណៈ៖ ទិន្នន័យមុខ និងសំឡេងកាន់តែច្រើនដែលអ្នកបង្ហោះនៅលើបណ្តាញសង្គម AI មានសម្ភារៈកាន់តែច្រើនដើម្បីបង្កើតភាពក្លែងក្លាយ។ រក្សាវាទុកជាឯកជន ហើយគិតមុនពេលអ្នកបង្ហោះ។
សូមប្រយ័ត្នជាមួយការហៅទូរសព្ទ និងវីដេអូដែលគួរឱ្យសង្ស័យ៖ ប្រសិនបើអ្នកទទួលការហៅទូរសព្ទ ឬវីដេអូពីនរណាម្នាក់ដែលអ្នកស្គាល់ ប៉ុន្តែមានខ្លឹមសារមិនធម្មតា (ដូចជាសំណើផ្ទេរប្រាក់ សេចក្តីថ្លែងការណ៍ចម្លែកជាដើម) កុំជឿវា។ សូមផ្ទៀងផ្ទាត់ដោយការហៅទូរសព្ទដោយផ្ទាល់ ឬផ្ញើសារតាមរយៈប៉ុស្តិ៍ផ្សេងទៀត។
ប្រើឧបករណ៍ស្វែងរកក្លែងក្លាយ៖ វេទិកា និងក្រុមហ៊ុនសន្តិសុខជាច្រើនបានបង្កើតឧបករណ៍ដើម្បីពិនិត្យមើលរូបភាព/វីដេអូសម្រាប់សញ្ញានៃការជ្រៀតជ្រែក AI ។ ខណៈពេលដែលមិនល្អឥតខ្ចោះ ពួកគេគឺជាជំហានដំបូងដ៏មានប្រយោជន៍សម្រាប់ការយល់ដឹង។
រក្សាដានឌីជីថលរបស់អ្នកឱ្យមានសុវត្ថិភាព៖ កុំចែករំលែកការថតសំឡេង ឬវីដេអូជាមួយមុខរបស់អ្នកក្នុងបរិយាកាសដែលមិនមានការគ្រប់គ្រង (ដូចជា chatbots ចម្លែក ឬកម្មវិធីដែលមិនស្គាល់ប្រភពដើម)។ ការថតសំឡេងខ្លីក៏អាចត្រូវបានទាញយកដើម្បីក្លែងបន្លំអ្នកផងដែរ។
ត្រូវជូនដំណឹង និងប្រុងប្រយ័ត្ន៖ កុំភ័យស្លន់ស្លោ ប៉ុន្តែត្រូវយល់៖ ការក្លែងបន្លំជ្រៅបានហួសពីបច្ចេកវិទ្យាកម្សាន្ត។ សូមចែករំលែកចំណេះដឹងនេះទៅកាន់មនុស្សជាទីស្រលាញ់របស់អ្នក ជាពិសេសមនុស្សចាស់ និងកុមារ - ក្រុមដែលងាយចាញ់បោកដោយមាតិកាដែលមើលទៅ "ពិតប្រាកដ" ។
អ្នកមិនអាចបញ្ឈប់ AI ពីការជឿនលឿនបានទេ ប៉ុន្តែអ្នកអាចការពារខ្លួនអ្នកដោយការយល់ដឹង ការប្រុងប្រយ័ត្ន និងសកម្ម។ នៅក្នុង ពិភពលោក ដែលការពិត និងភាពមិនពិតគ្រាន់តែចុចពីរបីដងប៉ុណ្ណោះ ចំណេះដឹងគឺជាខែលការពារដ៏ល្អបំផុត។
ប្រភព៖ https://tuoitre.vn/deepfake-cong-nghe-lam-mo-ranh-gioi-that-gia-20250528100957532.htm
Kommentar (0)