មនុស្សអាក្រក់អាចប្រើ AI ដើម្បីបញ្ចូលគ្នានូវរូបថត និង វីដេអូ រសើប ដើម្បីបង្ខូចកេរ្តិ៍ឈ្មោះ និងបង្ខូចអ្នកដទៃ - រូបថត៖ គំនូរ AI
កាលពីមុន នៅពេលនិយាយអំពីបច្ចេកទេសនៃការកាត់ និងបិទមុខរបស់មនុស្សម្នាក់ទៅលើរាងកាយរបស់មនុស្សម្នាក់ទៀតនោះ មនុស្សតែងតែប្រើប្រាស់កម្មវិធី Photoshop ឬកម្មវិធីកែរូបភាពឯកទេស ដែលវាពិបាក និងងាយសម្គាល់ដោយភ្នែកទទេ។
ឥឡូវនេះជាមួយនឹងឧបករណ៍ AI មនុស្សអាចធ្វើវាបានយ៉ាងងាយស្រួលបន្ទាប់ពី "កំណត់ចំណាំមួយចំនួន" ប៉ុន្តែវាមិនងាយស្រួលទេក្នុងការរកឃើញដោយភ្នែកទទេ។
វីដេអូសិចប្តូរមុខសម្រាប់ការគំរាមកំហែង
ដោយសារតែទំនាក់ទំនងការងារ លោក H. (នាយកអាជីវកម្មនៅទីក្រុងហូជីមិញ) តែងតែធ្វើអន្តរកម្មនៅលើបណ្តាញសង្គម។
មានពេលមួយគាត់ត្រូវបានមិត្តស្រីវ័យក្មេងម្នាក់សួរអំពីការងាររបស់គាត់។ ក្រោយពីសួរនាំគ្នា ជជែកគ្នាលេងមួយរយៈពីការងារ និងជីវិតផ្ទាល់ខ្លួន អ្នកទាំងពីរបានស្និទ្ធស្នាលគ្នាខ្លាំង។
វាក៏មានការផ្ញើសារជាអក្សរជាច្រើនរវាងអ្នកទាំងពីរជាមួយនឹងពាក្យពេចន៍ដ៏រំជួលចិត្ត រួមជាមួយនឹងរូបភាពផ្ញើទៅវិញទៅមក និងការហៅជាវីដេអូដើម្បីមើលគ្នាទៅវិញទៅមក។
ថ្ងៃមួយ លោក ហ. ស្រាប់តែបានទទួលទូរស័ព្ទពីបុរសម្នាក់ដែលអះអាងថាជាប្តីរបស់ក្មេងស្រីនោះ។ បន្ទាប់ពីមានការវាយប្រហា "ទុកជាមុន" លើលោក H. នោះ "ប្តី" បានទាមទារឱ្យគាត់ផ្ទេរប្រាក់សំណងប្រសិនបើគាត់មិនចង់ឱ្យមានរូបថតនៃការជជែកនិងវីដេអូសិចរវាងអ្នកទាំងពីរផ្ញើទៅសាច់ញាតិនិងដៃគូ។
បន្ទាប់មក លោក H. ត្រូវបានបង្ហាញវីដេអូសិចរបស់គាត់ និងក្មេងស្រីម្នាក់ទៀតដោយ "ប្តី" របស់គាត់ រួមជាមួយនឹងវីដេអូនៃការហៅគ្នារវាងអ្នកទាំងពីរ និងបានថតសារយ៉ាងស្និទ្ធស្នាល...
លោក H. បញ្ជាក់ថា៖ «ខ្ញុំមិនដែលបានជួបនារីម្នាក់នោះទេ ដូច្នេះខ្ញុំប្រាកដថាវីដេអូសិចនេះជាវីដេអូថតចម្លង»។ យ៉ាងណាមិញ រូបភាពមុខរបស់តារាស្រីក្នុងវីដេអូសិច និងនារីក្នុងវីដេអូ Call របស់គាត់គឺដូចគ្នា រួមជាមួយនឹងរូបថតនៃសារភ្ជាប់ពាក្យស្នេហាបង្ខំឱ្យលោក H. ផ្ទេរប្រាក់ទៅឱ្យ "ប្តី" ជាច្រើនដងដើម្បីការពារកេរ្តិ៍ឈ្មោះរបស់គាត់។
តាមរយៈការស៊ើបអង្កេតរបស់ Tuoi Tre លោក H. ត្រូវបានគេបោកប្រាស់ក្នុងលក្ខណៈរៀបចំតាមសេណារីយ៉ូដ៏ល្អឥតខ្ចោះ។ ក្នុងការបោកប្រាស់នេះ លោក H. ត្រូវបានបោកបញ្ឆោតពីរដងដោយការក្លែងបន្លំជ្រៅ។ លើកទីមួយគឺជាវីដេអូហៅទូរស័ព្ទ និងលើកទីពីរជាវីដេអូសិច។
គួរឲ្យកត់សម្គាល់ នៅក្នុងវីដេអូសិច មុខរបស់លោក H. ត្រូវបានផាត់មុខយ៉ាងប៉ិនប្រសប់ ធ្វើឲ្យអ្នកទស្សនាពិបាកនឹងជឿថា វាជាវីដេអូលាបមុខ។ អ្នកជំនាញ AI បានបញ្ជាក់ប្រាប់ Tuoi Tre ថា មនុស្សអាក្រក់បានប្រើឧបករណ៍ AI ថ្មី ដែលអាចផ្សាំមុខលើវីដេអូបានយ៉ាងល្អឥតខ្ចោះ... ដូចរូបពិត។
ឧបករណ៍ AI ផ្លាស់ប្តូរមុខមានច្រើន។
បច្ចុប្បន្ននេះមានឧបករណ៍កម្មវិធី AI ជាច្រើនដែលមានលក្ខណៈពិសេសដូចជា បង្កើតមនុស្សណាម្នាក់ដែលមានមុខដែលចង់បាន ហើយបញ្ចូលមុខដែលចង់បានទៅក្នុងខ្លួនរបស់មនុស្សផ្សេងទៀត។
ក្នុងចំណោមនោះ មានឧបករណ៍ដែលមានលក្ខណៈពិសេសដែលបម្រើគោលបំណងមិនល្អដូចជាការបង្វែររូបថតធម្មតាទៅជារូបអាក្រាតដោយ "លុបចេញ" មនុស្សក្នុងរូបថត ឬការជំនួសមុខមនុស្សក្នុងវីដេអូជាមួយមុខដែលចង់បាន...
ឧបករណ៍ AI ទាំងនេះភាគច្រើនអាចរកបានសម្រាប់ការសាកល្បង ប៉ុន្តែការបង់ប្រាក់សម្រាប់ពួកវានឹងផ្តល់ឱ្យអ្នកនូវមុខងារពេញលេញជាមួយនឹងពេលវេលាផ្លាស់ប្តូរលឿនបំផុត។
ជាឧទាហរណ៍ ជាមួយនឹងមុខងារនៃការបញ្ចូលមុខលើរាងកាយរបស់អ្នកដ៏ទៃ អ្នកប្រើប្រាស់គ្រាន់តែត្រូវបង្ហោះរូបថតពីរដែលត្រូវគ្នា ហើយរង់ចាំពីរបីវិនាទីសម្រាប់លទ្ធផល។
ឬជាមួយនឹងមុខងារនៃការបង្កើតរូបភាពអាក្រាតកាយពីរូបថតធម្មតា ឧបករណ៍ AI អាចធ្វើវាបានយ៉ាងឆាប់រហ័ស ក្នុងរយៈពេលត្រឹមតែប៉ុន្មានវិនាទីប៉ុណ្ណោះ ដែលធ្វើឲ្យអ្នកទស្សនាភ្ញាក់ផ្អើល។
សូម្បីតែមុខងារនៃការជំនួសមុខនៅក្នុងវីដេអូសិចក៏ដោយ ឧបករណ៍ AI ធ្វើវាបានយ៉ាងលឿនដោយចំណាយពេលតិចជាងមួយនាទីសម្រាប់វីដេអូដែលមានរយៈពេលពីរបីវិនាទី។
ថ្លែងជាមួយ Tuoi Tre លោក Nguyen Kim Tho ប្រធានក្រុមស្រាវជ្រាវ និងអភិវឌ្ឍន៍នៃក្រុមហ៊ុនសន្តិសុខតាមអ៊ីនធឺណិត VNetwork បានវិភាគពាក្យ Deepfake ដែលប្រើសំដៅលើវីដេអូក្លែងក្លាយ និងរូបភាពដែលបង្កើតឡើងដោយ AI ដើម្បីធ្វើឱ្យអ្នកទស្សនាគិតថាពួកគេពិត។
បច្ចេកវិទ្យា Deepfake ប្រើគំរូសិក្សាជ្រៅៗ ដូចជាបណ្តាញសរសៃប្រសាទ ដើម្បីវិភាគទិន្នន័យមុខ និងសំឡេងរបស់មនុស្ស ហើយបង្កើតខ្លឹមសារក្លែងក្លាយដែលមើលទៅដូចមនុស្សនោះ។
"អរគុណចំពោះក្បួនដោះស្រាយដ៏មានឥទ្ធិពល មនុស្សអាក្រក់អាចដាក់មុខជនរងគ្រោះទៅក្នុងវីដេអូរសើប (ឧទាហរណ៍ វីដេអូ "គ្រែ" អាសអាភាស) ឬកែសម្រួលរូបភាពដើម្បីបង្កើតរូបថតអាក្រាតកាយក្លែងក្លាយ។
កម្មវិធី និងកម្មវិធី Deepfake ឥឡូវនេះមានប្រជាប្រិយភាពខ្លាំងនៅលើអ៊ីនធឺណិត សូម្បីតែកម្មវិធីទូរស័ព្ទ កូដប្រភពបើកចំហ ឬសេវាអនឡាញឥតគិតថ្លៃ ដែលធ្វើឱ្យវាងាយស្រួលសម្រាប់នរណាម្នាក់ក្នុងការចូលប្រើឧបករណ៍ដើម្បីបង្កើតវីដេអូ និងរូបថតក្លែងក្លាយ ដូច្នេះមនុស្សត្រូវមានការប្រុងប្រយ័ត្ន»។
នៅឱ្យឆ្ងាយពី "ការជជែកផ្លូវភេទ"
ការបោកប្រាស់ជាច្រើនចាប់ផ្តើមជាមួយនឹងការបង្កើតមិត្តភក្តិតាមអ៊ីនធឺណិត ហើយបន្ទាប់មកបញ្ឆោតជនរងគ្រោះឱ្យ "ជជែកផ្លូវភេទ" ឬផ្ញើរូបថតរសើប។ ដូច្នេះហើយ អ្នកប្រើប្រាស់មិនគួរផ្ញើរូបថត ឬវីដេអូឯកជនទៅកាន់មនុស្សដែលពួកគេជួបតែលើអ៊ីនធឺណិតនោះទេ ទោះបីជាពួកគេសន្យា ឬគំរាមកំហែងប៉ុណ្ណាក៏ដោយ។
ចងចាំជានិច្ចថាមាតិកាដែលបានចែករំលែក (សូម្បីតែតាមរយៈសារឯកជន) អាចត្រូវបានថត (រូបថតអេក្រង់ វីដេអូ) ហើយបន្ទាប់មកកែសម្រួល និងប្រើប្រឆាំងនឹងអ្នក។
ប្រសិនបើអ្នកហៅជាវីដេអូ សូមប្រយ័ត្នចំពោះជនចម្លែកដែលស្នើសុំមាតិការសើប - វាអាចជាអេក្រង់ក្លែងក្លាយ ឬពួកគេកំពុងថត។
អ្នកជំនាញផ្នែកសុវត្ថិភាពតាមអ៊ីនធឺណិត ណែនាំអ្នកប្រើប្រាស់កុំឱ្យទុកចិត្តនរណាម្នាក់ដោយគ្រាន់តែទំនាក់ទំនងតាមអ៊ីនធឺណិត ហើយត្រូវផ្ទៀងផ្ទាត់អត្តសញ្ញាណ និងចេតនារបស់អ្នកដទៃ មុនពេលចែករំលែកអ្វីដែលរសើប។
ក្រៅពីនេះ ប្រសិនបើអ្នកទទួលសារ ឬហៅទូរស័ព្ទគំរាមបញ្ចេញរូបថត "ក្តៅ" សម្រាប់ blackmail អ្នកប្រើប្រាស់មិនចាំបាច់ភ័យខ្លាច និងប្រញាប់ផ្ទេរប្រាក់ទេ។
ការបង់ប្រាក់មិនធានាថាជនខិលខូចនឹងលុបវីដេអូនោះទេ; អ្នកជំនាញបាននិយាយថា ពួកគេអាចបន្តទាមទារបន្ថែមទៀត ឬបង្ហោះខ្លឹមសារតាមអ៊ីនធឺណិត។
ជំនួសឱ្យការធ្វើតាមសំណើរបស់ឧក្រិដ្ឋជន អ្នកប្រើប្រាស់គួរតែប្រមូលភស្តុតាង (សារ លេខទូរស័ព្ទ គណនីទំនាក់ទំនង មាតិកាគំរាមកំហែង...) ហើយរាយការណ៍ភ្លាមៗទៅកាន់ភ្នាក់ងារប៉ូលីសដែលនៅជិតបំផុត ឬរាយការណ៍អំពីឧបទ្ទវហេតុនេះតាមរយៈកម្មវិធី VNeID របស់ ក្រសួងសន្តិសុខសាធារណៈ សម្រាប់ការគាំទ្រទាន់ពេលវេលា។
តើធ្វើដូចម្តេចដើម្បីកំណត់អត្តសញ្ញាណ?
យោងតាមលោក ង្វៀន គីមថូ ការបែងចែករវាងរូបភាពពិត និងវីដេអូ និងការក្លែងបន្លំកាន់តែជ្រៅកាន់តែពិបាក ប៉ុន្តែនៅតែមានសញ្ញាសម្គាល់ និងឧបករណ៍គាំទ្រមួយចំនួន។
អ្នកប្រើអាចសង្កេតមើលដោយដៃព្រោះមាតិកាក្លែងក្លាយជួនកាលមានភាពមិនប្រក្រតីនៃរូបភាព និងសំឡេង។
ជាឧទាហរណ៍ រូបភាពផ្សំអាចបង្ហាញពីភាពខុសគ្នានៃសម្លេង និងពណ៌រវាងមុខ និងរាងកាយ។ វីដេអូក្លែងក្លាយអាចមានភាពមិនស៊ីគ្នាជាមួយវីដេអូអូឌីយ៉ូ (ចលនាបបូរមាត់មិនត្រូវគ្នានឹងការនិយាយ) ឬទឹកមុខដែលមើលទៅរឹង និងខុសពីធម្មជាតិ។
កាលពីមុន វីដេអូក្លែងក្លាយមួយចំនួនបានធ្វើឱ្យតួអង្គមិនព្រិចភ្នែក ឬពន្លឺ និងស្រមោលនៅលើមុខមិនត្រូវគ្នានឹងបរិបទ ដែលជាសញ្ញាបង្ហាញថាវីដេអូនេះត្រូវបានកែសម្រួល។
ទោះបីជាបច្ចេកវិទ្យាកំពុងមានភាពប្រសើរឡើង (ឧទាហរណ៍ ការក្លែងបន្លំជ្រៅថ្មីបានបន្ថែមចលនាភ្លឹបភ្លែតៗ) ក៏ដោយ អ្នកមើលដែលសង្កេតនៅតែអាចឃើញព័ត៌មានលម្អិតមិនសមហេតុផលនៅក្នុងវីដេអូ និងរូបថត។
ឥឡូវនេះក្រុមអ្នកស្រាវជ្រាវកំពុងបង្កើតក្បួនដោះស្រាយជាច្រើន ដើម្បីស្វែងរកដានក្លែងក្លាយយ៉ាងជ្រៅដោយស្វ័យប្រវត្តិ។
មាតិកាដែលបង្កើតដោយ AI ជារឿយៗទុក "ស្នាមម្រាមដៃឌីជីថល" ប្លែកៗនៅក្នុងភីកសែលនីមួយៗដែលម៉ាស៊ីនអាចសម្គាល់បាន។
ជាឧទាហរណ៍ ក្រុមហ៊ុន Intel បានណែនាំឧបករណ៍ចាប់សញ្ញាក្លែងបន្លំពេលជាក់ស្តែងដំបូង ដែលមានសមត្ថភាពវិភាគវីដេអូ និងកំណត់ថាតើតួអង្គនៅក្នុងពួកគេជាមនុស្សពិត ឬបង្កើតដោយ AI ។
លើសពីនេះ គេហទំព័រមួយចំនួនអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់បង្ហោះវីដេអូ និងរូបថត ដើម្បីពិនិត្យមើលភាពត្រឹមត្រូវនៃរូបភាព (ឧទាហរណ៍ Deepware, Sensity AI ។ល។)។ ប្រព័ន្ធទាំងនេះត្រូវបានអាប់ដេតឥតឈប់ឈរ ដើម្បីរក្សានូវបច្ចេកទេសនៃការក្លែងបន្លំជ្រៅថ្មីៗ។
ជាពិសេស អ្នកប្រើប្រាស់អាចពិនិត្យមើលប្រភពនៃការបង្ហោះ និងបរិបទនៅពេលជួបប្រទះវីដេអូ ឬរូបភាពដ៏រសើប ដោយសារវីដេអូក្លែងក្លាយជាច្រើនត្រូវបានផ្សព្វផ្សាយតាមរយៈគណនីក្លែងក្លាយ ឬរូបយន្តនៅលើបណ្តាញសង្គម។
"ប្រសិនបើខ្លឹមសាររសើបអំពីបុគ្គលនោះមកពីប្រភពក្រៅផ្លូវការ ឬគណនីអនាមិក សូមសង្ស័យអំពីភាពត្រឹមត្រូវរបស់វា។ អ្នកប្រហែលជាចង់ទាក់ទងបុគ្គលដែលមានលក្ខណៈពិសេសនៅក្នុងខ្លឹមសារដោយផ្ទាល់ ដើម្បីផ្ទៀងផ្ទាត់ថាពួកគេពិតជាបានធ្វើវាមែន។
លើសពីនេះ គម្រោងដូចជាកំពុងលើកកម្ពស់ការបង្កប់ព័ត៌មានផ្ទៀងផ្ទាត់ (ហត្ថលេខាឌីជីថល) ទៅក្នុងរូបថត និងវីដេអូចាប់ពីពេលបង្កើត ដោយជួយបែងចែកខ្លឹមសារដើមចេញពីខ្លឹមសារដែលបានកែសម្រួល។ នៅថ្ងៃអនាគត អ្នកប្រើប្រាស់អាចប្រើប្រាស់សញ្ញាផ្ទៀងផ្ទាត់ទាំងនេះ ដើម្បីកំណត់អត្តសញ្ញាណខ្លឹមសារដែលគួរឱ្យទុកចិត្ត។
គន្លឹះ 5 ដើម្បីការពារខ្លួនអ្នក
1. កំណត់ការចែករំលែករូបថត និងវីដេអូឯកជនដែលរសើប (ជាពិសេសរូបថតអាក្រាតកាយ រូបថតគ្រួសារ កុមារ)។
2. កំណត់គណនីប្រព័ន្ធផ្សព្វផ្សាយសង្គមទៅជាឯកជន (ចែករំលែកតែជាមួយមនុស្សដែលអាចទុកចិត្តបាន)។
3. កុំផ្តល់ព័ត៌មានផ្ទាល់ខ្លួនច្រើនពេក (ឈ្មោះពេញ លេខទូរស័ព្ទ អាស័យដ្ឋាន...) នៅលើបណ្តាញសង្គមសាធារណៈ។
4. កំណត់ពាក្យសម្ងាត់ខ្លាំង និងបើកការផ្ទៀងផ្ទាត់ពីរជំហានសម្រាប់គណនីរបស់អ្នក ដើម្បីជៀសវាងការលួចចូល។
5. ស្វែងរកឈ្មោះ និងរូបភាពរបស់អ្នកនៅលើ Google ជាទៀងទាត់ (ឬប្រើឧបករណ៍ស្វែងរករូបភាពបញ្ច្រាសដូចជា Google Image, TinEye) ដើម្បីមើលថាតើរូបថតណាមួយរបស់អ្នកត្រូវបានបង្ហោះដោយគ្មានការអនុញ្ញាត និងស្នើសុំការដកពួកវាចេញភ្លាមៗ។
ប្រភព៖ https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
Kommentar (0)