
ជនមានគំនិតអាក្រក់អាចប្រើប្រាស់ AI ដើម្បីរៀបចំរូបភាព និង វីដេអូ រសើបដើម្បីបរិហារកេរ្តិ៍ ឬជំរិតទារប្រាក់ពីអ្នកដទៃ - រូបថត៖ គំនូរ AI។
ពីមុន នៅពេលពិភាក្សាអំពីបច្ចេកទេសនៃការដាក់មុខមនុស្សម្នាក់ពីលើខ្លួនរបស់អ្នកដទៃ មនុស្សច្រើនតែប្រើ Photoshop ឬកម្មវិធីកែរូបភាពឯកទេសផ្សេងទៀត ដែលប្រើកម្លាំងពលកម្មច្រើន និងងាយកត់សម្គាល់ដោយភ្នែកទទេ។
ឥឡូវនេះ ជាមួយនឹងឧបករណ៍ AI មនុស្សអាចធ្វើវាបានយ៉ាងងាយស្រួលក្នុងរយៈពេល "ប៉ុន្មាននាទី" ប៉ុន្តែវាមិនងាយស្រួលរកឃើញដោយភ្នែកទទេនោះទេ។
ការប្តូរមុខក្នុងវីដេអូរួមភេទដើម្បីជំរិតទារប្រាក់។
ដោយសារតែទំនាក់ទំនងការងារ លោក H. (នាយកអាជីវកម្មមួយនៅទីក្រុងហូជីមិញ) តែងតែធ្វើអន្តរកម្មនៅលើបណ្តាញសង្គមជាញឹកញាប់។
មានពេលមួយ នារីវ័យក្មេងម្នាក់បានរាប់អានគាត់ជាមិត្តភ័ក្តិ ដើម្បីសាកសួរអំពីការងាររបស់គាត់។ បន្ទាប់ពីជជែកគ្នា និងចែករំលែករឿងរ៉ាវអំពីការងារ និងជីវិតផ្ទាល់ខ្លួនមួយរយៈ ពួកគេក៏បានក្លាយជាមិត្តភ័ក្តិជិតស្និទ្ធនឹងគ្នា។
មានសារជាអក្សរជាច្រើនរវាងអ្នកទាំងពីរផងដែរ ដែលពោរពេញដោយពាក្យសម្ដីស្រលាញ់ រួមជាមួយនឹងរូបភាពដែលផ្ញើទៅមក និងការហៅជាវីដេអូ ដើម្បីឱ្យពួកគេអាចមើលឃើញមុខគ្នាទៅវិញទៅមក។
ថ្ងៃមួយ លោក H. បានទទួលការហៅទូរស័ព្ទពីនរណាម្នាក់ដែលអះអាងថាជាស្វាមីរបស់ក្មេងស្រីនោះ។ បន្ទាប់ពីវគ្គ "ព្រមាន" "ស្វាមី" បានទាមទារឱ្យលោក H. ផ្ទេរប្រាក់សំណង ឬប្រថុយនឹងការផ្ញើរូបថតអេក្រង់នៃកំណត់ហេតុជជែក និងវីដេអូរួមភេទរបស់ពួកគេទៅសាច់ញាតិ និងដៃគូអាជីវកម្មរបស់គាត់។
បន្ទាប់មក លោក H. ត្រូវបាន "ស្វាមី" របស់គាត់បង្ហាញវីដេអូរួមភេទរបស់គាត់ និងស្ត្រីម្នាក់ទៀត រួមជាមួយនឹងវីដេអូនៃការហៅទូរស័ព្ទរបស់ពួកគេ និងរូបថតអេក្រង់នៃសារជាអក្សរសម្ងាត់របស់ពួកគេ...
លោក H. បានអះអាងថា «ខ្ញុំមិនដែលជួបនារីនោះទេ ដូច្នេះខ្ញុំប្រាកដថាវីដេអូរួមភេទនេះត្រូវបានកាត់ត»។ ទោះជាយ៉ាងណាក៏ដោយ មុខរបស់នារីនៅក្នុងវីដេអូរួមភេទ និងនារីនៅក្នុងការហៅជាវីដេអូរបស់គាត់គឺដូចគ្នាបេះបិទ រួមជាមួយនឹងរូបថតអេក្រង់នៃសារស្នេហា ដែលបង្ខំឱ្យលោក H. ផ្ទេរប្រាក់ម្តងហើយម្តងទៀតទៅ «ស្វាមី» ដើម្បីការពារកេរ្តិ៍ឈ្មោះរបស់គាត់។
យោងតាមការស៊ើបអង្កេតរបស់ កាសែត Tuoi Tre លោក H. គឺជាជនរងគ្រោះនៃការឆបោកដែលបានរៀបចំឡើងដោយអនុវត្តតាមផែនការដែលបានរៀបចំយ៉ាងល្អឥតខ្ចោះ។ នៅក្នុងការឆបោកនេះ លោក H. ត្រូវបានបោកបញ្ឆោតពីរដងដោយបច្ចេកវិទ្យា Deepfake។ លើកទីមួយគឺជាការហៅជាវីដេអូ និងលើកទីពីរគឺជាវីដេអូរួមភេទ។
ជាពិសេស នៅក្នុងវីដេអូរួមភេទ មុខរបស់លោក H. ត្រូវបានដាក់ពីលើយ៉ាងប៉ិនប្រសប់ ដែលអ្នកទស្សនាពិបាកនឹងជឿថាវាជាវីដេអូក្លែងក្លាយ។ អ្នកជំនាញ AI ម្នាក់បានបញ្ជាក់ប្រាប់ កាសែត Tuổi Trẻ ថា ជនល្មើសបានប្រើឧបករណ៍ AI ថ្មីមួយដែលមានសមត្ថភាពដាក់មុខលើវីដេអូបានយ៉ាងល្អឥតខ្ចោះ... ដែលធ្វើឱ្យមុខទាំងនោះមើលទៅប្រាកដនិយមមិនគួរឱ្យជឿ។
មានឧបករណ៍ប្តូរមុខ AI រាប់មិនអស់។
ឥឡូវនេះមានឧបករណ៍ជាច្រើនដែលដំណើរការដោយ AI ដែលមានលក្ខណៈពិសេសដូចជាការបង្កើតរូបរាងមនុស្សណាមួយជាមួយនឹងមុខដែលចង់បាន ឬការដាក់មុខដែលចង់បានលើរាងកាយរបស់អ្នកដទៃ។
ក្នុងចំណោមឧបករណ៍ទាំងនេះ មានឧបករណ៍ដែលមានលក្ខណៈពិសេសដែលបម្រើគោលបំណងព្យាបាទ ដូចជាការប្រែក្លាយរូបថតធម្មតាទៅជារូបភាពអាក្រាតកាយដោយ "ដោះចេញ" មនុស្សនៅក្នុងរូបថត ឬការជំនួសមុខមនុស្សនៅក្នុងវីដេអូជាមួយនឹងមុខដែលចង់បាន...
ឧបករណ៍ AI ភាគច្រើនទាំងនេះផ្តល់ជូនរយៈពេលសាកល្បង។ កំណែបង់ប្រាក់ផ្តល់នូវមុខងារពេញលេញ និងពេលវេលាផ្លាស់ប្តូរលឿនបំផុត។
ឧទាហរណ៍ ជាមួយនឹងមុខងារដែលប្តូរមុខទៅលើដងខ្លួនរបស់អ្នកដទៃ អ្នកប្រើប្រាស់គ្រាន់តែបង្ហោះរូបថតពីរសន្លឹកដែលត្រូវគ្នា ហើយរង់ចាំពីរបីវិនាទីសម្រាប់លទ្ធផល។
ឬមួយក៏ ជាមួយនឹងលក្ខណៈពិសេសនៃការបង្កើតរូបភាពអាក្រាតកាយពីរូបថតធម្មតា ឧបករណ៍ AI អាចធ្វើវាបានយ៉ាងលឿន ក្នុងរយៈពេលត្រឹមតែប៉ុន្មានវិនាទីប៉ុណ្ណោះ ដែលធ្វើឱ្យអ្នកទស្សនាភ្ញាក់ផ្អើល។
សូម្បីតែមុខងារនៃការជំនួសមុខនៅក្នុងវីដេអូសិចក៏ត្រូវបានធ្វើយ៉ាងរហ័សដោយឧបករណ៍ AI ដោយចំណាយពេលតិចជាងមួយនាទីសម្រាប់វីដេអូដែលមានរយៈពេលត្រឹមតែប៉ុន្មានវិនាទីប៉ុណ្ណោះ។
ថ្លែងទៅកាន់ កាសែត Tuổi Trẻ លោក Nguyen Kim Tho ប្រធានក្រុមស្រាវជ្រាវ និងអភិវឌ្ឍន៍នៅក្រុមហ៊ុនសន្តិសុខតាមអ៊ីនធឺណិត VNetwork បានវិភាគពាក្យ "deepfake" ដែលសំដៅទៅលើវីដេអូ និងរូបភាពក្លែងក្លាយដែលបង្កើតឡើងដោយប្រើ AI ដើម្បីបញ្ឆោតអ្នកទស្សនាឱ្យជឿថាពួកគេជារបស់ពិត។
បច្ចេកវិទ្យា Deepfake ប្រើប្រាស់គំរូសិក្សាស៊ីជម្រៅដូចជាបណ្តាញសរសៃប្រសាទ ដើម្បីវិភាគទិន្នន័យមុខ និងសំឡេងរបស់មនុស្ស និងបង្កើតខ្លឹមសារក្លែងក្លាយដែលមើលទៅដូចមនុស្សនោះ។
"អរគុណចំពោះក្បួនដោះស្រាយដ៏មានអានុភាព ជនល្មើសដែលមានគំនិតអាក្រក់អាចដាក់មុខជនរងគ្រោះលើវីដេអូរសើប (ឧទាហរណ៍ វីដេអូរួមភេទ វីដេអូអាសអាភាស) ឬកែសម្រួលរូបភាពដើម្បីបង្កើតរូបថតអាក្រាតកាយក្លែងក្លាយ"។
លោក ថូ បានមានប្រសាសន៍ថា «កម្មវិធី និងកម្មវិធី Deepfake ឥឡូវនេះគឺជារឿងធម្មតាណាស់នៅលើអ៊ីនធឺណិត រួមទាំងកម្មវិធីទូរស័ព្ទ កម្មវិធីប្រភពបើកចំហ ឬសេវាកម្មអនឡាញឥតគិតថ្លៃផងដែរ ដែលធ្វើឱ្យវាងាយស្រួលសម្រាប់នរណាម្នាក់ក្នុងការចូលប្រើឧបករណ៍ដើម្បីបង្កើតវីដេអូ និងរូបថតក្លែងក្លាយ ដូច្នេះមនុស្សត្រូវប្រុងប្រយ័ត្ន»។
ជៀសវាងការជជែកអំពី "ការរួមភេទ"។
ការឆបោកជាច្រើនចាប់ផ្តើមដោយការរាប់អានមិត្តភក្តិតាមអ៊ីនធឺណិត ហើយបន្ទាប់មកល្បួងជនរងគ្រោះឱ្យចូលទៅក្នុង "ការជជែកផ្លូវភេទ" ឬផ្ញើរូបថតរសើប។ ដូច្នេះ អ្នកប្រើប្រាស់មិនគួរផ្ញើរូបភាព ឬវីដេអូឯកជនទៅមនុស្សដែលពួកគេស្គាល់តាមអ៊ីនធឺណិតទាល់តែសោះ ដោយមិនគិតពីការសន្យា ឬការគំរាមកំហែងឡើយ។
ចូរចងចាំជានិច្ចថា ខ្លឹមសារណាមួយដែលអ្នកចែករំលែក (សូម្បីតែតាមរយៈសារឯកជន) អាចត្រូវបានថតទុក (រូបថតអេក្រង់ វីដេអូ) ហើយបន្ទាប់មកកែសម្រួល និងប្រើប្រាស់ប្រឆាំងនឹងអ្នក។
ប្រសិនបើអ្នកកំពុងធ្វើការហៅជាវីដេអូ សូមប្រយ័ត្នចំពោះមនុស្សចម្លែកដែលផ្តល់ជូនខ្លឹមសាររសើប - វាអាចជាអេក្រង់ក្លែងក្លាយ ឬពួកគេកំពុងថតអ្នក។
អ្នកជំនាញសន្តិសុខតាមអ៊ីនធឺណិតណែនាំអ្នកប្រើប្រាស់ឱ្យជៀសវាងការទុកចិត្តនរណាម្នាក់ដោយផ្អែកលើអន្តរកម្មតាមអ៊ីនធឺណិតទាំងស្រុង ហើយត្រូវផ្ទៀងផ្ទាត់អត្តសញ្ញាណ និងចេតនារបស់ភាគីម្ខាងទៀត មុនពេលចែករំលែកអ្វីដែលរសើប។
លើសពីនេះ ប្រសិនបើអ្នកទទួលបានសារគំរាមកំហែង ឬការហៅទូរស័ព្ទអំពីការចេញផ្សាយរូបថត "អាក្រាតកាយ" សម្រាប់ការគំរាមកំហែង អ្នកមិនចាំបាច់ភ័យខ្លាច ឬប្រញាប់ប្រញាល់ផ្ទេរប្រាក់នោះទេ។
យោងតាមអ្នកជំនាញ ការចំណាយប្រាក់មិនធានាថាជនល្មើសនឹងលុបវីដេអូនោះទេ ពួកគេអាចបន្តទាមទារបន្ថែមទៀត ឬនៅតែបង្ហោះខ្លឹមសារនោះតាមអ៊ីនធឺណិត។
ជំនួសឲ្យការអនុវត្តតាមការទាមទាររបស់ឧក្រិដ្ឋជន អ្នកប្រើប្រាស់គួរតែប្រមូលភស្តុតាង (សារ លេខទូរស័ព្ទ គណនីទំនាក់ទំនង ខ្លឹមសារគំរាមកំហែង។ល។) ហើយរាយការណ៍ជាបន្ទាន់ទៅកាន់ស្ថានីយប៉ូលីសដែលនៅជិតបំផុត ឬរាយការណ៍ពីហេតុការណ៍នេះតាមរយៈកម្មវិធី VNeID របស់ ក្រសួងសន្តិសុខសាធារណៈ ដើម្បីទទួលបានជំនួយទាន់ពេលវេលា។
តើយើងអាចកំណត់អត្តសញ្ញាណពួកគេដោយរបៀបណា?
យោងតាមលោក Nguyen Kim Tho ការបែងចែករវាងរូបភាព និងវីដេអូពិត និងវីដេអូក្លែងក្លាយកាន់តែពិបាកឡើងៗ ប៉ុន្តែនៅតែមានសញ្ញាណ និងឧបករណ៍កំណត់អត្តសញ្ញាណមួយចំនួនដើម្បីជួយ។
អ្នកប្រើប្រាស់អាចសង្កេតមើលរឿងនេះដោយដៃ ព្រោះខ្លឹមសារ deepfake ពេលខ្លះមានភាពមិនប្រក្រតីនៃរូបភាព និងសំឡេង។
ឧទាហរណ៍ រូបភាពផ្សំអាចបង្ហាញពីភាពខុសគ្នានៃសំឡេងរំខាន និងពណ៌រវាងមុខ និងដងខ្លួនដែលដាក់ពីលើគ្នា។ វីដេអូក្លែងក្លាយអាចមានសំឡេង និងវីដេអូមិនត្រូវគ្នា (ចលនាបបូរមាត់មិនត្រូវគ្នានឹងការនិយាយ) ឬទឹកមុខដែលមើលទៅរឹងរូស និងមិនធម្មតា។
ពីមុន វីដេអូ Deepfake មួយចំនួនបានបង្ហាញតួអង្គមិនព្រិចភ្នែក ឬពន្លឺ និងស្រមោលនៅលើមុខរបស់ពួកគេមិនត្រូវគ្នានឹងផ្ទៃខាងក្រោយទេ - ទាំងនេះគឺជាសញ្ញាដែលបង្ហាញថាវីដេអូត្រូវបានកែសម្រួល។
ទោះបីជាបច្ចេកវិទ្យាកំពុងមានភាពប្រសើរឡើងក៏ដោយ (ឧទាហរណ៍ បច្ចេកវិទ្យា Deepfakes ថ្មីៗបានបន្ថែមចលនាភ្លឹបភ្លែតៗដែលមានលក្ខណៈប្រាកដនិយម) អ្នកទស្សនាដែលមានការយល់ដឹងនៅតែអាចមើលឃើញព័ត៌មានលម្អិតមិនសមហេតុផលមួយចំនួននៅក្នុងវីដេអូ និងរូបថត។
ឥឡូវនេះ ក្រុមអ្នកស្រាវជ្រាវកំពុងបង្កើតក្បួនដោះស្រាយផ្សេងៗ ដើម្បីរកឃើញដាននៃ deepfakes ដោយស្វ័យប្រវត្តិ។
ខ្លឹមសារដែលបង្កើតដោយ AI ជារឿយៗបន្សល់ទុក "ស្នាមម្រាមដៃឌីជីថល" តែមួយគត់នៅលើភីកសែលនីមួយៗដែលម៉ាស៊ីនអាចស្គាល់បាន។
ជាឧទាហរណ៍ ក្រុមហ៊ុន Intel បានណែនាំឧបករណ៍ចាប់សញ្ញា deepfake ក្នុងពេលជាក់ស្តែងដំបូងគេ ដែលមានសមត្ថភាពវិភាគវីដេអូ និងកំណត់ថាតើតួអង្គនៅក្នុងនោះជាមនុស្សពិត ឬបង្កើតឡើងដោយ AI។
លើសពីនេះ គេហទំព័រមួយចំនួនអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់បង្ហោះវីដេអូ និងរូបថតដើម្បីពិនិត្យមើលភាពត្រឹមត្រូវរបស់វា (ឧទាហរណ៍ Deepware, Sensity AI...)។ ប្រព័ន្ធទាំងនេះត្រូវបានធ្វើបច្ចុប្បន្នភាពជានិច្ច ដើម្បីតាមទាន់បច្ចេកទេស Deepfake ថ្មីៗ។
ជាពិសេស អ្នកប្រើប្រាស់អាចពិនិត្យមើលប្រភព និងបរិបទនៅពេលជួបប្រទះវីដេអូ ឬរូបភាពរសើប ព្រោះវីដេអូ Deepfake ជាច្រើនត្រូវបានផ្សព្វផ្សាយតាមរយៈគណនីក្លែងក្លាយ ឬបូតនៅលើប្រព័ន្ធផ្សព្វផ្សាយសង្គម។
«ប្រសិនបើខ្លឹមសាររសើបអំពីមនុស្សម្នាក់មានប្រភពមកពីប្រភពក្រៅផ្លូវការ ឬគណនីអនាមិក ភាពត្រឹមត្រូវរបស់វាគួរតែត្រូវបានសួរ។ វាអាចមានតម្លៃក្នុងការព្យាយាមទាក់ទងមនុស្សដែលបានបង្ហាញនៅក្នុងខ្លឹមសារដោយផ្ទាល់ ដើម្បីផ្ទៀងផ្ទាត់ថាតើពួកគេពិតជាបានធ្វើវាឬអត់»។
លើសពីនេះ គម្រោងដូចនេះកំពុងលើកកម្ពស់ការបង្កប់ព័ត៌មានផ្ទៀងផ្ទាត់ (ហត្ថលេខាឌីជីថល) ទៅក្នុងរូបភាព និងវីដេអូតាំងពីការបង្កើត ដែលជួយបែងចែករវាងខ្លឹមសារដើម និងខ្លឹមសារដែលបានកែសម្រួល។ នាពេលអនាគត អ្នកប្រើប្រាស់អាចប្រើសញ្ញាសម្គាល់ផ្ទៀងផ្ទាត់ទាំងនេះ ដើម្បីកំណត់អត្តសញ្ញាណខ្លឹមសារដែលគួរឱ្យទុកចិត្តបាន” លោក ថូ បានមានប្រសាសន៍ថា។
គន្លឹះ ៥ យ៉ាងសម្រាប់ការពារខ្លួន
១. កំណត់ការចែករំលែករូបថត និងវីដេអូរសើប និងឯកជន (ជាពិសេសរូបថតអាក្រាតកាយ រូបថតគ្រួសារ និងរូបថតកុមារ)។
២. កំណត់គណនីប្រព័ន្ធផ្សព្វផ្សាយសង្គមរបស់អ្នកទៅជាឯកជន (ចែករំលែកតែជាមួយមនុស្សដែលទុកចិត្តប៉ុណ្ណោះ)។
៣. ជៀសវាងការផ្តល់ព័ត៌មានផ្ទាល់ខ្លួនច្រើនពេក (ឈ្មោះពេញ លេខទូរស័ព្ទ អាសយដ្ឋាន។ល។) នៅលើប្រព័ន្ធផ្សព្វផ្សាយសង្គមសាធារណៈ។
៤. កំណត់ពាក្យសម្ងាត់រឹងមាំ និងបើកការផ្ទៀងផ្ទាត់ពីរកត្តាសម្រាប់គណនីរបស់អ្នក ដើម្បីការពារការលួចចូល។
៥. ស្វែងរកឈ្មោះ និងរូបភាពរបស់អ្នកជាប្រចាំនៅលើ Google (ឬប្រើឧបករណ៍ស្វែងរករូបភាពបញ្ច្រាសដូចជា Google Image ឬ TinEye) ដើម្បីមើលថាតើរូបថតរបស់អ្នកណាមួយត្រូវបានបង្ហោះដោយខុសច្បាប់ឬអត់ ហើយស្នើសុំឱ្យលុបវាចេញជាបន្ទាន់។
ប្រភព៖ https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm






Kommentar (0)