មនុស្សអាក្រក់អាចប្រើ AI ដើម្បីបញ្ចូលគ្នានូវរូបថត និង វីដេអូ រសើប ដើម្បីបង្ខូចកេរ្តិ៍ឈ្មោះ និងបង្ខូចអ្នកដទៃ - រូបថត៖ គំនូរ AI
កាលពីមុន នៅពេលនិយាយអំពីបច្ចេកទេសនៃការកាត់ និងបិទមុខរបស់មនុស្សម្នាក់ទៅលើរាងកាយរបស់មនុស្សម្នាក់ទៀត មនុស្សតែងតែប្រើប្រាស់កម្មវិធី Photoshop ឬកម្មវិធីកែរូបភាពឯកទេស ដែលវាពិបាក និងងាយសម្គាល់ដោយភ្នែកទទេ។
ឥឡូវនេះជាមួយនឹងឧបករណ៍ AI មនុស្សអាចធ្វើវាបានយ៉ាងងាយស្រួលនៅក្នុង "កំណត់ចំណាំមួយចំនួន" ប៉ុន្តែវាមិនងាយស្រួលទេក្នុងការរកឃើញដោយភ្នែកទទេ។
វីដេអូសិចប្តូរមុខសម្រាប់ការគំរាមកំហែង
ដោយសារតែទំនាក់ទំនងការងារ លោក H. (នាយកអាជីវកម្មនៅទីក្រុងហូជីមិញ) តែងតែធ្វើអន្តរកម្មនៅលើបណ្តាញសង្គម។
មានពេលមួយគាត់ត្រូវបានមិត្តស្រីវ័យក្មេងម្នាក់សួរអំពីការងាររបស់គាត់។ មួយរយៈក្រោយពីសួរនាំគ្នា ជជែកចែករំលែកពីការងារ និងជីវិតផ្ទាល់ខ្លួន អ្នកទាំងពីរហាក់ស្និទ្ធស្នាលនឹងគ្នាខ្លាំង។
ក្នុងនោះក៏មានការផ្ញើសារជាច្រើនរវាងអ្នកទាំងពីរជាមួយនឹងពាក្យពេចន៍ផ្អែមល្ហែម រួមជាមួយនឹងរូបភាពផ្ញើទៅវិញទៅមក និងការហៅជាវីដេអូដើម្បីមើលគ្នាទៅវិញទៅមក។
ថ្ងៃមួយ លោក ហ. ស្រាប់តែបានទទួលទូរស័ព្ទពីបុរសម្នាក់ដែលអះអាងថាជាប្តីរបស់ក្មេងស្រីនោះ។ បន្ទាប់ពីទង្វើ "ទុកជាមុន" ប្រឆាំងនឹងលោក H. "ប្តី" បានទាមទារឱ្យគាត់ផ្ទេរប្រាក់សំណងបើមិនដូច្នោះទេគាត់នឹងផ្ញើរូបថតនៃការជជែកនិងវីដេអូសិចរបស់ពួកគេទៅសាច់ញាតិនិងដៃគូអាជីវកម្មរបស់គាត់។
បន្ទាប់មក លោក H. ត្រូវបានបង្ហាញវីដេអូសិចរបស់គាត់ និងក្មេងស្រីម្នាក់ទៀតដោយ "ប្តី" របស់គាត់ រួមជាមួយនឹងការហៅជាវីដេអូរវាងអ្នកទាំងពីរ និងបានថតសារជាអក្សរស្និទ្ធស្នាល...
លោក H. បញ្ជាក់ថា៖ «ខ្ញុំមិនដែលបានជួបនារីម្នាក់នោះទេ ដូច្នេះខ្ញុំប្រាកដថាវីដេអូសិចនេះជារូបភាពថតរូប» ។ យ៉ាងណាមិញ រូបភាពមុខរបស់តារាស្រីក្នុងវីដេអូសិច និងនារីក្នុងវីដេអូ Call របស់គាត់គឺដូចគ្នា រួមជាមួយនឹងរូបថតនៃសារភ្ជាប់ពាក្យស្នេហាបង្ខំឱ្យលោក H. ផ្ទេរប្រាក់ទៅឱ្យ "ប្តី" ជាច្រើនដងដើម្បីការពារកេរ្តិ៍ឈ្មោះរបស់គាត់។
តាមរយៈការស៊ើបអង្កេតរបស់ Tuoi Tre លោក H. ត្រូវបានគេបោកប្រាស់ក្នុងលក្ខណៈរៀបចំតាមសេណារីយ៉ូដ៏ល្អឥតខ្ចោះមួយ។ ក្នុងការបោកប្រាស់នេះ លោក H. ត្រូវបានបោកបញ្ឆោតពីរដងដោយការក្លែងបន្លំជ្រៅ។ លើកទីមួយគឺជាវីដេអូហៅទូរស័ព្ទ និងលើកទីពីរជាវីដេអូសិច។
គួរឲ្យកត់សម្គាល់ នៅក្នុងវីដេអូសិច មុខរបស់លោក H. ត្រូវបានផាត់មុខយ៉ាងប៉ិនប្រសប់ ធ្វើឲ្យអ្នកទស្សនាពិបាកនឹងជឿថា វាជាវីដេអូផាត់មុខ។ អ្នកជំនាញ AI បានបញ្ជាក់ប្រាប់ Tuoi Tre ថា មនុស្សអាក្រក់បានប្រើឧបករណ៍ AI ថ្មី ដែលអាចផ្សាំមុខលើវីដេអូបានយ៉ាងល្អឥតខ្ចោះ... ដូចរូបពិត។
ឧបករណ៍ AI ផ្លាស់ប្តូរមុខមានច្រើន។
បច្ចុប្បន្ននេះមានឧបករណ៍កម្មវិធី AI ជាច្រើនដែលមានលក្ខណៈពិសេសដូចជា បង្កើតមនុស្សណាម្នាក់ដែលមានមុខដែលចង់បាន ហើយបញ្ចូលមុខដែលចង់បានទៅក្នុងខ្លួនរបស់មនុស្សផ្សេងទៀត។
ក្នុងចំណោមនោះ មានឧបករណ៍ដែលមានលក្ខណៈពិសេសដែលបម្រើគោលបំណងមិនល្អដូចជាការបង្វែររូបថតធម្មតាទៅជារូបអាក្រាតដោយ "លុបចេញ" មនុស្សក្នុងរូបថត ឬការជំនួសមុខមនុស្សក្នុងវីដេអូជាមួយមុខដែលចង់បាន...
ឧបករណ៍ AI ទាំងនេះភាគច្រើនអាចរកបានសម្រាប់ការសាកល្បង ប៉ុន្តែការបង់ប្រាក់សម្រាប់ពួកវានឹងផ្តល់ឱ្យអ្នកនូវមុខងារពេញលេញជាមួយនឹងពេលវេលាផ្លាស់ប្តូរលឿនបំផុត។
ជាឧទាហរណ៍ ជាមួយនឹងមុខងារមុខទល់នឹងរាងកាយ អ្នកប្រើប្រាស់គ្រាន់តែត្រូវបង្ហោះរូបថតពីរដែលត្រូវគ្នា ហើយរង់ចាំពីរបីវិនាទីសម្រាប់លទ្ធផល។
ឬជាមួយនឹងមុខងារនៃការបង្កើតរូបភាពអាក្រាតកាយពីរូបថតធម្មតា ឧបករណ៍ AI អាចធ្វើវាបានយ៉ាងឆាប់រហ័ស ក្នុងរយៈពេលត្រឹមតែប៉ុន្មានវិនាទីប៉ុណ្ណោះ ដែលធ្វើឲ្យអ្នកទស្សនាភ្ញាក់ផ្អើល។
សូម្បីតែមុខងារនៃការជំនួសមុខនៅក្នុងវីដេអូសិចក៏ដោយ ឧបករណ៍ AI ធ្វើវាបានយ៉ាងលឿនដោយចំណាយពេលតិចជាងមួយនាទីសម្រាប់វីដេអូដែលមានរយៈពេលពីរបីវិនាទី។
ថ្លែងជាមួយ Tuoi Tre លោក Nguyen Kim Tho ប្រធានក្រុមស្រាវជ្រាវ និងអភិវឌ្ឍន៍នៃក្រុមហ៊ុនសន្តិសុខតាមអ៊ីនធឺណិត VNetwork បានវិភាគពាក្យ Deepfake ដែលសំដៅលើវីដេអូក្លែងក្លាយ និងរូបភាពដែលបង្កើតឡើងដោយប្រើ AI ដើម្បីធ្វើឱ្យអ្នកទស្សនាគិតថាពួកគេពិត។
បច្ចេកវិទ្យា Deepfake ប្រើគំរូសិក្សាជ្រៅៗ ដូចជាបណ្តាញសរសៃប្រសាទ ដើម្បីវិភាគទិន្នន័យមុខ និងសំឡេងរបស់មនុស្ស ហើយបង្កើតខ្លឹមសារក្លែងក្លាយដែលមើលទៅដូចមនុស្សនោះ។
"អរគុណចំពោះក្បួនដោះស្រាយដ៏មានឥទ្ធិពល មនុស្សអាក្រក់អាចដាក់មុខជនរងគ្រោះទៅជាវីដេអូរសើប (ឧទាហរណ៍ វីដេអូ "គ្រែ" អាសអាភាស) ឬកែសម្រួលរូបភាពដើម្បីបង្កើតរូបថតអាក្រាតកាយក្លែងក្លាយ។
កម្មវិធី និងកម្មវិធី Deepfake ឥឡូវនេះមានប្រជាប្រិយភាពខ្លាំងនៅលើអ៊ីនធឺណិត សូម្បីតែកម្មវិធីទូរស័ព្ទ កូដប្រភពបើកចំហ ឬសេវាអនឡាញឥតគិតថ្លៃ ដែលធ្វើឱ្យវាងាយស្រួលសម្រាប់នរណាម្នាក់ក្នុងការចូលប្រើឧបករណ៍ដើម្បីបង្កើតវីដេអូ និងរូបថតក្លែងក្លាយ ដូច្នេះមនុស្សត្រូវមានការប្រុងប្រយ័ត្ន»។
នៅឱ្យឆ្ងាយពី "ការជជែកផ្លូវភេទ"
ការបោកប្រាស់ជាច្រើនចាប់ផ្តើមជាមួយនឹងការបង្កើតមិត្តភក្តិតាមអ៊ីនធឺណិត ហើយបន្ទាប់មកបញ្ឆោតជនរងគ្រោះឱ្យ "ជជែកផ្លូវភេទ" ឬផ្ញើរូបថតរសើប។ ដូច្នេះហើយ អ្នកប្រើប្រាស់មិនគួរផ្ញើរូបថត ឬវីដេអូឯកជនទៅមនុស្សដែលពួកគេជួបតែលើអ៊ីនធឺណិតនោះទេ ទោះបីជាមានការសន្យា ឬគំរាមកំហែងបែបណាក៏ដោយ។
ចងចាំជានិច្ចថាមាតិកាដែលបានចែករំលែក (សូម្បីតែតាមរយៈសារឯកជន) អាចត្រូវបានថត (រូបថតអេក្រង់ វីដេអូ) ហើយបន្ទាប់មកកែសម្រួល និងប្រើប្រឆាំងនឹងអ្នក។
ប្រសិនបើអ្នកហៅជាវីដេអូ សូមប្រយ័ត្នចំពោះជនចម្លែកដែលស្នើសុំមាតិការសើប - វាអាចជាអេក្រង់ក្លែងក្លាយ ឬពួកគេកំពុងថត។
អ្នកជំនាញផ្នែកសុវត្ថិភាពតាមអ៊ីនធឺណិត ណែនាំអ្នកប្រើប្រាស់កុំឱ្យទុកចិត្តនរណាម្នាក់ដោយគ្រាន់តែទំនាក់ទំនងតាមអ៊ីនធឺណិត ហើយត្រូវផ្ទៀងផ្ទាត់អត្តសញ្ញាណ និងចេតនារបស់អ្នកដទៃ មុនពេលចែករំលែកអ្វីដែលរសើប។
លើសពីនេះ ប្រសិនបើអ្នកទទួលសារ ឬហៅទូរស័ព្ទមកគំរាមបញ្ចេញរូបថត "ក្តៅ" សម្រាប់ blackmail អ្នកប្រើប្រាស់មិនចាំបាច់ភ័យខ្លាច ឬប្រញាប់ផ្ទេរប្រាក់ទេ។
ការបង់ប្រាក់មិនធានាថាជនខិលខូចនឹងលុបវីដេអូនោះទេ; អ្នកជំនាញបាននិយាយថា ពួកគេអាចបន្តទាមទារបន្ថែមទៀត ឬបង្ហោះខ្លឹមសារតាមអ៊ីនធឺណិត។
ជំនួសឱ្យការធ្វើតាមសំណើរបស់ឧក្រិដ្ឋជន អ្នកប្រើប្រាស់គួរតែប្រមូលភស្តុតាង (សារ លេខទូរស័ព្ទ គណនីទំនាក់ទំនង មាតិកាគំរាមកំហែង...) ហើយរាយការណ៍ភ្លាមៗទៅកាន់ភ្នាក់ងារប៉ូលីសដែលនៅជិតបំផុត ឬរាយការណ៍អំពីឧបទ្ទវហេតុនេះតាមរយៈកម្មវិធី VNeID របស់ ក្រសួងសន្តិសុខសាធារណៈ សម្រាប់ការគាំទ្រទាន់ពេលវេលា។
តើធ្វើដូចម្តេចដើម្បីកំណត់អត្តសញ្ញាណ?
យោងតាមលោក ង្វៀន គីមថូ ការបែងចែករវាងរូបភាពពិត និងវីដេអូ និងការក្លែងបន្លំកាន់តែជ្រៅកាន់តែពិបាក ប៉ុន្តែនៅតែមានសញ្ញាសម្គាល់ និងឧបករណ៍គាំទ្រមួយចំនួន។
អ្នកប្រើអាចសង្កេតមើលដោយដៃបាន ព្រោះពេលខ្លះមាតិកាក្លែងក្លាយមានភាពមិនប្រក្រតីនៃរូបភាព និងសំឡេង។
ជាឧទាហរណ៍ រូបភាពផ្សំអាចបង្ហាញសម្លេងរំខាន ឬភាពខុសគ្នានៃពណ៌រវាងមុខ និងរាងកាយ។ វីដេអូក្លែងក្លាយអាចមានភាពស៊ីគ្នាជាសំឡេង និងវីដេអូ (ចលនាបបូរមាត់មិនត្រូវគ្នានឹងការនិយាយ) ឬទឹកមុខដែលមើលទៅរឹង និងខុសពីធម្មជាតិ។
កាលពីមុន វីដេអូក្លែងក្លាយមួយចំនួនបានធ្វើឱ្យតួអង្គមិនព្រិចភ្នែក ឬពន្លឺ និងស្រមោលនៅលើមុខមិនត្រូវគ្នានឹងបរិបទ ដែលជាសញ្ញាបង្ហាញថាវីដេអូនេះត្រូវបានកែសម្រួល។
ទោះបីជាបច្ចេកវិទ្យាកំពុងមានភាពប្រសើរឡើង (ឧទាហរណ៍ ការក្លែងបន្លំជ្រៅថ្មីបានបន្ថែមចលនាព្រិចភ្នែកជាក់ស្តែង) អ្នកមើលដែលសង្កេតនៅតែអាចឃើញព័ត៌មានលំអិតដែលមិនសមហេតុផលនៅក្នុងវីដេអូ និងរូបថត។
ឥឡូវនេះក្រុមអ្នកស្រាវជ្រាវកំពុងបង្កើតក្បួនដោះស្រាយជាច្រើន ដើម្បីស្វែងរកដានក្លែងក្លាយយ៉ាងជ្រៅដោយស្វ័យប្រវត្តិ។
មាតិកាដែលបង្កើតដោយ AI ជារឿយៗទុក "ស្នាមម្រាមដៃឌីជីថល" ប្លែកៗនៅក្នុងភីកសែលនីមួយៗដែលម៉ាស៊ីនអាចសម្គាល់បាន។
ជាឧទាហរណ៍ ក្រុមហ៊ុន Intel បានណែនាំឧបករណ៍ចាប់សញ្ញាក្លែងបន្លំពេលជាក់ស្តែងដំបូង ដែលមានសមត្ថភាពវិភាគវីដេអូ និងកំណត់ថាតើតួអង្គនៅក្នុងពួកគេជាមនុស្សពិត ឬបង្កើតដោយ AI ។
លើសពីនេះ គេហទំព័រមួយចំនួនអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់បង្ហោះវីដេអូ និងរូបថត ដើម្បីពិនិត្យមើលភាពត្រឹមត្រូវនៃរូបភាព (ឧទាហរណ៍ Deepware, Sensity AI tools...)។ ប្រព័ន្ធទាំងនេះត្រូវបានអាប់ដេតឥតឈប់ឈរ ដើម្បីរក្សានូវបច្ចេកទេសនៃការក្លែងបន្លំជ្រៅថ្មីៗ។
ជាពិសេស អ្នកប្រើប្រាស់អាចពិនិត្យមើលប្រភពនៃការបង្ហោះ និងបរិបទនៅពេលជួបប្រទះវីដេអូ ឬរូបភាពដ៏រសើប ដោយសារវីដេអូក្លែងក្លាយជាច្រើនត្រូវបានផ្សព្វផ្សាយតាមរយៈគណនីក្លែងក្លាយ ឬរូបយន្តនៅលើបណ្តាញសង្គម។
"ប្រសិនបើខ្លឹមសាររសើបអំពីបុគ្គលនោះមកពីប្រភពក្រៅផ្លូវការ ឬគណនីអនាមិក សូមសង្ស័យអំពីភាពត្រឹមត្រូវរបស់វា។ អ្នកប្រហែលជាចង់ទាក់ទងបុគ្គលដែលមានលក្ខណៈពិសេសនៅក្នុងខ្លឹមសារដោយផ្ទាល់ ដើម្បីផ្ទៀងផ្ទាត់ថាពួកគេពិតជាបានធ្វើវាមែន។
លើសពីនេះ គម្រោងដូចជាកំពុងលើកកម្ពស់ការបង្កប់ព័ត៌មានផ្ទៀងផ្ទាត់ (ហត្ថលេខាឌីជីថល) ទៅក្នុងរូបថត និងវីដេអូចាប់ពីពេលបង្កើត ដោយជួយបែងចែកខ្លឹមសារដើមចេញពីខ្លឹមសារដែលបានកែសម្រួល។ នៅថ្ងៃអនាគត អ្នកប្រើប្រាស់អាចប្រើប្រាស់សញ្ញាផ្ទៀងផ្ទាត់ទាំងនេះ ដើម្បីកំណត់អត្តសញ្ញាណខ្លឹមសារដែលគួរឱ្យទុកចិត្ត។
5 កំណត់សម្គាល់ដើម្បីការពារខ្លួនអ្នក
1. កំណត់ការចែករំលែករូបថត និងវីដេអូឯកជនដែលរសើប (ជាពិសេសរូបថតអាក្រាតកាយ រូបថតគ្រួសារ កុមារ)។
2. កំណត់គណនីប្រព័ន្ធផ្សព្វផ្សាយសង្គមរបស់អ្នកទៅជាឯកជន (ចែករំលែកតែជាមួយមនុស្សដែលគួរឱ្យទុកចិត្តប៉ុណ្ណោះ)។
3. កុំផ្តល់ព័ត៌មានផ្ទាល់ខ្លួនច្រើនពេក (ឈ្មោះពេញ លេខទូរស័ព្ទ អាស័យដ្ឋាន...) នៅលើបណ្តាញសង្គមសាធារណៈ។
4. កំណត់ពាក្យសម្ងាត់ខ្លាំង និងបើកការផ្ទៀងផ្ទាត់ពីរជំហានសម្រាប់គណនីរបស់អ្នក ដើម្បីជៀសវាងការលួចចូល។
5. ស្វែងរកឈ្មោះ និងរូបភាពរបស់អ្នកជាទៀងទាត់នៅលើ Google (ឬប្រើឧបករណ៍ស្វែងរករូបភាពបញ្ច្រាសដូចជា Google Image, TinEye) ដើម្បីមើលថាតើរូបថតណាមួយរបស់អ្នកត្រូវបានបង្ហោះដោយគ្មានការអនុញ្ញាត និងស្នើសុំការដកចេញរបស់ពួកគេភ្លាមៗ។
ប្រភព៖ https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
Kommentar (0)