Vietnam.vn - Nền tảng quảng bá Việt Nam

ការប្រើប្រាស់ AI ដើម្បីរៀបចំរូបភាពរសើបសម្រាប់គោលបំណងគំរាមកំហែង។

តាមរយៈរូបថតដែលបានរៀបចំឡើងដែលបានបង្ហោះនៅលើបណ្តាញសង្គម ជនល្មើសដែលមានគំនិតអាក្រក់អាចប្រើប្រាស់បញ្ញាសិប្បនិម្មិត (AI) ដើម្បីបង្កើតរូបភាពដែលមានលក្ខណៈស្រើបស្រាល ឬសូម្បីតែរូបភាពអាក្រាតកាយ ឬដាក់មុខមាត់ប្រាកដនិយមលើវីដេអូរសើបដើម្បីបរិហារកេរ្តិ៍ ឬជំរិតទារប្រាក់ពីជនរងគ្រោះ។

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

ជន​មាន​គំនិត​អាក្រក់​អាច​ប្រើប្រាស់ AI ដើម្បី​រៀបចំ​រូបភាព និង ​វីដេអូ ​រសើប​ដើម្បី​បរិហារកេរ្តិ៍ ឬ​ជំរិត​ទារ​ប្រាក់​ពី​អ្នក​ដទៃ - រូបថត៖ គំនូរ AI។

ពីមុន នៅពេលពិភាក្សាអំពីបច្ចេកទេសនៃការដាក់មុខមនុស្សម្នាក់ពីលើខ្លួនរបស់អ្នកដទៃ មនុស្សច្រើនតែប្រើ Photoshop ឬកម្មវិធីកែរូបភាពឯកទេសផ្សេងទៀត ដែលប្រើកម្លាំងពលកម្មច្រើន និងងាយកត់សម្គាល់ដោយភ្នែកទទេ។

ឥឡូវនេះ ជាមួយនឹងឧបករណ៍ AI មនុស្សអាចធ្វើវាបានយ៉ាងងាយស្រួលក្នុងរយៈពេល "ប៉ុន្មាននាទី" ប៉ុន្តែវាមិនងាយស្រួលរកឃើញដោយភ្នែកទទេនោះទេ។

ការប្តូរមុខក្នុងវីដេអូរួមភេទដើម្បីជំរិតទារប្រាក់។

ដោយសារតែទំនាក់ទំនងការងារ លោក H. (នាយកអាជីវកម្មមួយនៅទីក្រុងហូជីមិញ) តែងតែធ្វើអន្តរកម្មនៅលើបណ្តាញសង្គមជាញឹកញាប់។

មានពេលមួយ នារីវ័យក្មេងម្នាក់បានរាប់អានគាត់ជាមិត្តភ័ក្តិ ដើម្បីសាកសួរអំពីការងាររបស់គាត់។ បន្ទាប់ពីជជែកគ្នា និងចែករំលែករឿងរ៉ាវអំពីការងារ និងជីវិតផ្ទាល់ខ្លួនមួយរយៈ ពួកគេក៏បានក្លាយជាមិត្តភ័ក្តិជិតស្និទ្ធនឹងគ្នា។

មានសារជាអក្សរជាច្រើនរវាងអ្នកទាំងពីរផងដែរ ដែលពោរពេញដោយពាក្យសម្ដីស្រលាញ់ រួមជាមួយនឹងរូបភាពដែលផ្ញើទៅមក និងការហៅជាវីដេអូ ដើម្បីឱ្យពួកគេអាចមើលឃើញមុខគ្នាទៅវិញទៅមក។

ថ្ងៃមួយ លោក H. បានទទួលការហៅទូរស័ព្ទពីនរណាម្នាក់ដែលអះអាងថាជាស្វាមីរបស់ក្មេងស្រីនោះ។ បន្ទាប់ពីវគ្គ "ព្រមាន" "ស្វាមី" បានទាមទារឱ្យលោក H. ផ្ទេរប្រាក់សំណង ឬប្រថុយនឹងការផ្ញើរូបថតអេក្រង់នៃកំណត់ហេតុជជែក និងវីដេអូរួមភេទរបស់ពួកគេទៅសាច់ញាតិ និងដៃគូអាជីវកម្មរបស់គាត់។

បន្ទាប់មក លោក H. ត្រូវបាន "ស្វាមី" របស់គាត់បង្ហាញវីដេអូរួមភេទរបស់គាត់ និងស្ត្រីម្នាក់ទៀត រួមជាមួយនឹងវីដេអូនៃការហៅទូរស័ព្ទរបស់ពួកគេ និងរូបថតអេក្រង់នៃសារជាអក្សរសម្ងាត់របស់ពួកគេ...

លោក H. បានអះអាងថា «ខ្ញុំមិនដែលជួបនារីនោះទេ ដូច្នេះខ្ញុំប្រាកដថាវីដេអូរួមភេទនេះត្រូវបានកាត់ត»។ ទោះជាយ៉ាងណាក៏ដោយ មុខរបស់នារីនៅក្នុងវីដេអូរួមភេទ និងនារីនៅក្នុងការហៅជាវីដេអូរបស់គាត់គឺដូចគ្នាបេះបិទ រួមជាមួយនឹងរូបថតអេក្រង់នៃសារស្នេហា ដែលបង្ខំឱ្យលោក H. ផ្ទេរប្រាក់ម្តងហើយម្តងទៀតទៅ «ស្វាមី» ដើម្បីការពារកេរ្តិ៍ឈ្មោះរបស់គាត់។

យោងតាមការស៊ើបអង្កេតរបស់ កាសែត Tuoi Tre លោក H. គឺជាជនរងគ្រោះនៃការឆបោកដែលបានរៀបចំឡើងដោយអនុវត្តតាមផែនការដែលបានរៀបចំយ៉ាងល្អឥតខ្ចោះ។ នៅក្នុងការឆបោកនេះ លោក H. ត្រូវបានបោកបញ្ឆោតពីរដងដោយបច្ចេកវិទ្យា Deepfake។ លើកទីមួយគឺជាការហៅជាវីដេអូ និងលើកទីពីរគឺជាវីដេអូរួមភេទ។

ជាពិសេស នៅក្នុងវីដេអូរួមភេទ មុខរបស់លោក H. ត្រូវបានដាក់ពីលើយ៉ាងប៉ិនប្រសប់ ដែលអ្នកទស្សនាពិបាកនឹងជឿថាវាជាវីដេអូក្លែងក្លាយ។ អ្នកជំនាញ AI ម្នាក់បានបញ្ជាក់ប្រាប់ កាសែត Tuổi Trẻ ថា ជនល្មើសបានប្រើឧបករណ៍ AI ថ្មីមួយដែលមានសមត្ថភាពដាក់មុខលើវីដេអូបានយ៉ាងល្អឥតខ្ចោះ... ដែលធ្វើឱ្យមុខទាំងនោះមើលទៅប្រាកដនិយមមិនគួរឱ្យជឿ។

មានឧបករណ៍ប្តូរមុខ AI រាប់មិនអស់។

ឥឡូវនេះមានឧបករណ៍ជាច្រើនដែលដំណើរការដោយ AI ដែលមានលក្ខណៈពិសេសដូចជាការបង្កើតរូបរាងមនុស្សណាមួយជាមួយនឹងមុខដែលចង់បាន ឬការដាក់មុខដែលចង់បានលើរាងកាយរបស់អ្នកដទៃ។

ក្នុងចំណោមឧបករណ៍ទាំងនេះ មានឧបករណ៍ដែលមានលក្ខណៈពិសេសដែលបម្រើគោលបំណងព្យាបាទ ដូចជាការប្រែក្លាយរូបថតធម្មតាទៅជារូបភាពអាក្រាតកាយដោយ "ដោះចេញ" មនុស្សនៅក្នុងរូបថត ឬការជំនួសមុខមនុស្សនៅក្នុងវីដេអូជាមួយនឹងមុខដែលចង់បាន...

ឧបករណ៍ AI ភាគច្រើនទាំងនេះផ្តល់ជូនរយៈពេលសាកល្បង។ កំណែបង់ប្រាក់ផ្តល់នូវមុខងារពេញលេញ និងពេលវេលាផ្លាស់ប្តូរលឿនបំផុត។

ឧទាហរណ៍ ជាមួយនឹងមុខងារដែលប្តូរមុខទៅលើដងខ្លួនរបស់អ្នកដទៃ អ្នកប្រើប្រាស់គ្រាន់តែបង្ហោះរូបថតពីរសន្លឹកដែលត្រូវគ្នា ហើយរង់ចាំពីរបីវិនាទីសម្រាប់លទ្ធផល។

ឬមួយក៏ ជាមួយនឹងលក្ខណៈពិសេសនៃការបង្កើតរូបភាពអាក្រាតកាយពីរូបថតធម្មតា ឧបករណ៍ AI អាចធ្វើវាបានយ៉ាងលឿន ក្នុងរយៈពេលត្រឹមតែប៉ុន្មានវិនាទីប៉ុណ្ណោះ ដែលធ្វើឱ្យអ្នកទស្សនាភ្ញាក់ផ្អើល។

សូម្បីតែមុខងារនៃការជំនួសមុខនៅក្នុងវីដេអូសិចក៏ត្រូវបានធ្វើយ៉ាងរហ័សដោយឧបករណ៍ AI ដោយចំណាយពេលតិចជាងមួយនាទីសម្រាប់វីដេអូដែលមានរយៈពេលត្រឹមតែប៉ុន្មានវិនាទីប៉ុណ្ណោះ។

ថ្លែងទៅកាន់ កាសែត Tuổi Trẻ លោក Nguyen Kim Tho ប្រធានក្រុមស្រាវជ្រាវ និងអភិវឌ្ឍន៍នៅក្រុមហ៊ុនសន្តិសុខតាមអ៊ីនធឺណិត VNetwork បានវិភាគពាក្យ "deepfake" ដែលសំដៅទៅលើវីដេអូ និងរូបភាពក្លែងក្លាយដែលបង្កើតឡើងដោយប្រើ AI ដើម្បីបញ្ឆោតអ្នកទស្សនាឱ្យជឿថាពួកគេជារបស់ពិត។

បច្ចេកវិទ្យា Deepfake ប្រើប្រាស់គំរូសិក្សាស៊ីជម្រៅដូចជាបណ្តាញសរសៃប្រសាទ ដើម្បីវិភាគទិន្នន័យមុខ និងសំឡេងរបស់មនុស្ស និងបង្កើតខ្លឹមសារក្លែងក្លាយដែលមើលទៅដូចមនុស្សនោះ។

"អរគុណចំពោះក្បួនដោះស្រាយដ៏មានអានុភាព ជនល្មើសដែលមានគំនិតអាក្រក់អាចដាក់មុខជនរងគ្រោះលើវីដេអូរសើប (ឧទាហរណ៍ វីដេអូរួមភេទ វីដេអូអាសអាភាស) ឬកែសម្រួលរូបភាពដើម្បីបង្កើតរូបថតអាក្រាតកាយក្លែងក្លាយ"។

លោក ថូ បានមានប្រសាសន៍ថា «កម្មវិធី និងកម្មវិធី Deepfake ឥឡូវនេះគឺជារឿងធម្មតាណាស់នៅលើអ៊ីនធឺណិត រួមទាំងកម្មវិធីទូរស័ព្ទ កម្មវិធីប្រភពបើកចំហ ឬសេវាកម្មអនឡាញឥតគិតថ្លៃផងដែរ ដែលធ្វើឱ្យវាងាយស្រួលសម្រាប់នរណាម្នាក់ក្នុងការចូលប្រើឧបករណ៍ដើម្បីបង្កើតវីដេអូ និងរូបថតក្លែងក្លាយ ដូច្នេះមនុស្សត្រូវប្រុងប្រយ័ត្ន»។

ជៀសវាងការជជែកអំពី "ការរួមភេទ"។

ការឆបោកជាច្រើនចាប់ផ្តើមដោយការរាប់អានមិត្តភក្តិតាមអ៊ីនធឺណិត ហើយបន្ទាប់មកល្បួងជនរងគ្រោះឱ្យចូលទៅក្នុង "ការជជែកផ្លូវភេទ" ឬផ្ញើរូបថតរសើប។ ដូច្នេះ អ្នកប្រើប្រាស់មិនគួរផ្ញើរូបភាព ឬវីដេអូឯកជនទៅមនុស្សដែលពួកគេស្គាល់តាមអ៊ីនធឺណិតទាល់តែសោះ ដោយមិនគិតពីការសន្យា ឬការគំរាមកំហែងឡើយ។

ចូរចងចាំជានិច្ចថា ខ្លឹមសារណាមួយដែលអ្នកចែករំលែក (សូម្បីតែតាមរយៈសារឯកជន) អាចត្រូវបានថតទុក (រូបថតអេក្រង់ វីដេអូ) ហើយបន្ទាប់មកកែសម្រួល និងប្រើប្រាស់ប្រឆាំងនឹងអ្នក។

ប្រសិនបើអ្នកកំពុងធ្វើការហៅជាវីដេអូ សូមប្រយ័ត្នចំពោះមនុស្សចម្លែកដែលផ្តល់ជូនខ្លឹមសាររសើប - វាអាចជាអេក្រង់ក្លែងក្លាយ ឬពួកគេកំពុងថតអ្នក។

អ្នកជំនាញសន្តិសុខតាមអ៊ីនធឺណិតណែនាំអ្នកប្រើប្រាស់ឱ្យជៀសវាងការទុកចិត្តនរណាម្នាក់ដោយផ្អែកលើអន្តរកម្មតាមអ៊ីនធឺណិតទាំងស្រុង ហើយត្រូវផ្ទៀងផ្ទាត់អត្តសញ្ញាណ និងចេតនារបស់ភាគីម្ខាងទៀត មុនពេលចែករំលែកអ្វីដែលរសើប។

លើសពីនេះ ប្រសិនបើអ្នកទទួលបានសារគំរាមកំហែង ឬការហៅទូរស័ព្ទអំពីការចេញផ្សាយរូបថត "អាក្រាតកាយ" សម្រាប់ការគំរាមកំហែង អ្នកមិនចាំបាច់ភ័យខ្លាច ឬប្រញាប់ប្រញាល់ផ្ទេរប្រាក់នោះទេ។

យោងតាមអ្នកជំនាញ ការចំណាយប្រាក់មិនធានាថាជនល្មើសនឹងលុបវីដេអូនោះទេ ពួកគេអាចបន្តទាមទារបន្ថែមទៀត ឬនៅតែបង្ហោះខ្លឹមសារនោះតាមអ៊ីនធឺណិត។

ជំនួស​ឲ្យ​ការ​អនុវត្ត​តាម​ការ​ទាមទារ​របស់​ឧក្រិដ្ឋជន អ្នកប្រើប្រាស់​គួរតែ​ប្រមូល​ភស្តុតាង (សារ លេខ​ទូរស័ព្ទ គណនី​ទំនាក់ទំនង ខ្លឹមសារ​គំរាមកំហែង។ល។) ហើយ​រាយការណ៍​ជាបន្ទាន់​ទៅកាន់​ស្ថានីយ​ប៉ូលីស​ដែល​នៅ​ជិត​បំផុត ឬ​រាយការណ៍​ពី​ហេតុការណ៍​នេះ​តាមរយៈ​កម្មវិធី VNeID របស់ ​ក្រសួង​សន្តិសុខ​សាធារណៈ ​ដើម្បី​ទទួលបាន​ជំនួយ​ទាន់ពេលវេលា។

តើយើងអាចកំណត់អត្តសញ្ញាណពួកគេដោយរបៀបណា?

យោងតាមលោក Nguyen Kim Tho ការបែងចែករវាងរូបភាព និងវីដេអូពិត និងវីដេអូក្លែងក្លាយកាន់តែពិបាកឡើងៗ ប៉ុន្តែនៅតែមានសញ្ញាណ និងឧបករណ៍កំណត់អត្តសញ្ញាណមួយចំនួនដើម្បីជួយ។

អ្នកប្រើប្រាស់អាចសង្កេតមើលរឿងនេះដោយដៃ ព្រោះខ្លឹមសារ deepfake ពេលខ្លះមានភាពមិនប្រក្រតីនៃរូបភាព និងសំឡេង។

ឧទាហរណ៍ រូបភាពផ្សំអាចបង្ហាញពីភាពខុសគ្នានៃសំឡេងរំខាន និងពណ៌រវាងមុខ និងដងខ្លួនដែលដាក់ពីលើគ្នា។ វីដេអូក្លែងក្លាយអាចមានសំឡេង និងវីដេអូមិនត្រូវគ្នា (ចលនាបបូរមាត់មិនត្រូវគ្នានឹងការនិយាយ) ឬទឹកមុខដែលមើលទៅរឹងរូស និងមិនធម្មតា។

ពីមុន វីដេអូ Deepfake មួយចំនួនបានបង្ហាញតួអង្គមិនព្រិចភ្នែក ឬពន្លឺ និងស្រមោលនៅលើមុខរបស់ពួកគេមិនត្រូវគ្នានឹងផ្ទៃខាងក្រោយទេ - ទាំងនេះគឺជាសញ្ញាដែលបង្ហាញថាវីដេអូត្រូវបានកែសម្រួល។

ទោះបីជាបច្ចេកវិទ្យាកំពុងមានភាពប្រសើរឡើងក៏ដោយ (ឧទាហរណ៍ បច្ចេកវិទ្យា Deepfakes ថ្មីៗបានបន្ថែមចលនាភ្លឹបភ្លែតៗដែលមានលក្ខណៈប្រាកដនិយម) អ្នកទស្សនាដែលមានការយល់ដឹងនៅតែអាចមើលឃើញព័ត៌មានលម្អិតមិនសមហេតុផលមួយចំនួននៅក្នុងវីដេអូ និងរូបថត។

ឥឡូវនេះ ក្រុមអ្នកស្រាវជ្រាវកំពុងបង្កើតក្បួនដោះស្រាយផ្សេងៗ ដើម្បីរកឃើញដាននៃ deepfakes ដោយស្វ័យប្រវត្តិ។

ខ្លឹមសារដែលបង្កើតដោយ AI ជារឿយៗបន្សល់ទុក "ស្នាមម្រាមដៃឌីជីថល" តែមួយគត់នៅលើភីកសែលនីមួយៗដែលម៉ាស៊ីនអាចស្គាល់បាន។

ជាឧទាហរណ៍ ក្រុមហ៊ុន Intel បានណែនាំឧបករណ៍ចាប់សញ្ញា deepfake ក្នុងពេលជាក់ស្តែងដំបូងគេ ដែលមានសមត្ថភាពវិភាគវីដេអូ និងកំណត់ថាតើតួអង្គនៅក្នុងនោះជាមនុស្សពិត ឬបង្កើតឡើងដោយ AI។

លើសពីនេះ គេហទំព័រមួយចំនួនអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់បង្ហោះវីដេអូ និងរូបថតដើម្បីពិនិត្យមើលភាពត្រឹមត្រូវរបស់វា (ឧទាហរណ៍ Deepware, Sensity AI...)។ ប្រព័ន្ធទាំងនេះត្រូវបានធ្វើបច្ចុប្បន្នភាពជានិច្ច ដើម្បីតាមទាន់បច្ចេកទេស Deepfake ថ្មីៗ។

ជាពិសេស អ្នកប្រើប្រាស់អាចពិនិត្យមើលប្រភព និងបរិបទនៅពេលជួបប្រទះវីដេអូ ឬរូបភាពរសើប ព្រោះវីដេអូ Deepfake ជាច្រើនត្រូវបានផ្សព្វផ្សាយតាមរយៈគណនីក្លែងក្លាយ ឬបូតនៅលើប្រព័ន្ធផ្សព្វផ្សាយសង្គម។

«ប្រសិនបើខ្លឹមសាររសើបអំពីមនុស្សម្នាក់មានប្រភពមកពីប្រភពក្រៅផ្លូវការ ឬគណនីអនាមិក ភាពត្រឹមត្រូវរបស់វាគួរតែត្រូវបានសួរ។ វាអាចមានតម្លៃក្នុងការព្យាយាមទាក់ទងមនុស្សដែលបានបង្ហាញនៅក្នុងខ្លឹមសារដោយផ្ទាល់ ដើម្បីផ្ទៀងផ្ទាត់ថាតើពួកគេពិតជាបានធ្វើវាឬអត់»។

លើសពីនេះ គម្រោងដូចនេះកំពុងលើកកម្ពស់ការបង្កប់ព័ត៌មានផ្ទៀងផ្ទាត់ (ហត្ថលេខាឌីជីថល) ទៅក្នុងរូបភាព និងវីដេអូតាំងពីការបង្កើត ដែលជួយបែងចែករវាងខ្លឹមសារដើម និងខ្លឹមសារដែលបានកែសម្រួល។ នាពេលអនាគត អ្នកប្រើប្រាស់អាចប្រើសញ្ញាសម្គាល់ផ្ទៀងផ្ទាត់ទាំងនេះ ដើម្បីកំណត់អត្តសញ្ញាណខ្លឹមសារដែលគួរឱ្យទុកចិត្តបាន” លោក ថូ បានមានប្រសាសន៍ថា។

គន្លឹះ ៥ យ៉ាងសម្រាប់ការពារខ្លួន

១. កំណត់ការចែករំលែករូបថត និងវីដេអូរសើប និងឯកជន (ជាពិសេសរូបថតអាក្រាតកាយ រូបថតគ្រួសារ និងរូបថតកុមារ)។

២. កំណត់គណនីប្រព័ន្ធផ្សព្វផ្សាយសង្គមរបស់អ្នកទៅជាឯកជន (ចែករំលែកតែជាមួយមនុស្សដែលទុកចិត្តប៉ុណ្ណោះ)។

៣. ជៀសវាងការផ្តល់ព័ត៌មានផ្ទាល់ខ្លួនច្រើនពេក (ឈ្មោះពេញ លេខទូរស័ព្ទ អាសយដ្ឋាន។ល។) នៅលើប្រព័ន្ធផ្សព្វផ្សាយសង្គមសាធារណៈ។

៤. កំណត់ពាក្យសម្ងាត់រឹងមាំ និងបើកការផ្ទៀងផ្ទាត់ពីរកត្តាសម្រាប់គណនីរបស់អ្នក ដើម្បីការពារការលួចចូល។

៥. ស្វែងរកឈ្មោះ និងរូបភាពរបស់អ្នកជាប្រចាំនៅលើ Google (ឬប្រើឧបករណ៍ស្វែងរករូបភាពបញ្ច្រាសដូចជា Google Image ឬ TinEye) ដើម្បីមើលថាតើរូបថតរបស់អ្នកណាមួយត្រូវបានបង្ហោះដោយខុសច្បាប់ឬអត់ ហើយស្នើសុំឱ្យលុបវាចេញជាបន្ទាន់។

អានបន្ថែម ត្រឡប់ទៅទំព័រដើមវិញ
គុណធម៌

ប្រភព៖ https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


Kommentar (0)

សូមអធិប្បាយដើម្បីចែករំលែកអារម្មណ៍របស់អ្នក!

ប្រភេទដូចគ្នា

សូមកោតសរសើរព្រះវិហារដ៏ស្រស់ស្អាត ដែលជាកន្លែងចុះឈ្មោះចូលដ៏ក្តៅគគុកនៅរដូវបុណ្យណូអែលនេះ។
«វិហារពណ៌ផ្កាឈូក» អាយុ 150 ឆ្នាំ ភ្លឺចែងចាំងយ៉ាងអស្ចារ្យនៅរដូវបុណ្យណូអែលនេះ។
នៅភោជនីយដ្ឋានហ្វ័រហាណូយនេះ ពួកគេធ្វើមីហ្វ័រដោយខ្លួនឯងក្នុងតម្លៃ 200,000 ដុង ហើយអតិថិជនត្រូវបញ្ជាទិញជាមុន។
បរិយាកាសបុណ្យណូអែលមានភាពរស់រវើកនៅតាមដងផ្លូវនៃទីក្រុងហាណូយ។

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

ផ្កាយណូអែលកម្ពស់ ៨ ម៉ែត្រដែលបំភ្លឺវិហារ Notre Dame ក្នុងទីក្រុងហូជីមិញ គឺពិតជាគួរឱ្យចាប់អារម្មណ៍ជាពិសេស។

ព្រឹត្តិការណ៍បច្ចុប្បន្ន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល