ផ្ទុយពីសម័យមុន នៅពេលដែលការចូលប្រើឧបករណ៍សិប្បនិម្មិតដើម្បីបង្កើត វីដេអូ Deepfake មានកម្រិតណាស់ ឧបករណ៍ AI ជាច្រើនដូចជា Grok, ChatGPT, Meta AI, Gemeni, DeepSeek ត្រូវបានចេញផ្សាយយ៉ាងទូលំទូលាយ និងអនុញ្ញាតឱ្យប្រើមុខងារជាមូលដ្ឋានដោយឥតគិតថ្លៃ រួមទាំងការបង្កើតរូបភាពផងដែរ។ អ្នកប្រើអាចបង្កើតរូបភាពដែលចង់បានឬសូម្បីតែច្រឹបនិងកែសម្រួលដោយមិនចាំបាច់យល់ពីបច្ចេកទេសកែច្នៃពិសេស។ នេះបាននាំឱ្យមានការកើនឡើងនៃការប្រើប្រាស់ AI ដើម្បីបង្កើតការបំបែកមុខសម្រាប់គោលបំណងរាប់ចាប់ពីការកម្សាន្តរហូតដល់ការគំរាមកំហែងនៅលើអ៊ីនធឺណិត។
អ្នកស្រី YN (សង្កាត់លេខ 1 ទីក្រុងហូជីមិញ) បាននិយាយថា នាងធ្លាប់ជាជនរងគ្រោះនៃឧបាយកលរូបភាពដែលមានមូលដ្ឋានលើ AI ដើម្បីគំរាមកំហែង ហើយត្រូវបានស្នើសុំឱ្យបង់ប្រាក់មួយចំនួនធំ ប្រសិនបើនាងចង់ទាញយកទិន្នន័យ "រសើប" ទោះបីជាវាត្រូវបានបង្កើតឡើងដោយឧបករណ៍បញ្ញាសិប្បនិម្មិតក៏ដោយ។ ជាពិសេស រូបភាពផ្ទាល់ខ្លួនរបស់នាងត្រូវបានប្រមូលដោយឧក្រិដ្ឋជន ហើយមុខរបស់ពួកគេត្រូវបានកែសម្រួលទៅជាខ្លឹមសារមិនល្អ បង្កើតការជជែកដ៏រសើប ហើយបន្ទាប់មកមកលោកស្រី YN ដើម្បី blackmail នាង។
ឧក្រិដ្ឋជនប្រើ AI ដើម្បីកែសម្រួល ច្រឹប និង blackmail ជនរងគ្រោះ
នារីរងគ្រោះបានចែករំលែកថា "ពួកគេបានបង្ហាញរូបថតអេក្រង់របស់ Chats រូបភាព និងវីដេអូក្លែងក្លាយដែលពួកគេបានបង្កើតមកខ្ញុំ រួចសុំលុយ 100 លានដុង ដើម្បីលុបខ្លឹមសារ។ ខ្ញុំត្រូវតែទទួលស្គាល់ថារូបភាពដែលផ្សំឡើងនោះ មិនអាចទទួលស្គាល់ថាជារូបពិត ឬក្លែងក្លាយទេ"។
ករណីរបស់លោកស្រី YN គឺគ្រាន់តែជាឧប្បត្តិហេតុមួយក្នុងចំនោមឧប្បត្តិហេតុថ្មីៗជាច្រើនដែលពាក់ព័ន្ធនឹងការបំពានលើ AI និងឧបករណ៍កែរូបភាពសម្រាប់គោលបំណងព្យាបាទ។ បច្ចុប្បន្ននេះ អ្នកប្រើប្រាស់ប្រព័ន្ធផ្សព្វផ្សាយសង្គមក្នុងប្រទេសវៀតណាមនៅតែ "មិនខ្វល់ខ្វាយ" ក្នុងការចែករំលែករូបភាពផ្ទាល់ខ្លួន មិត្តភក្តិ និងសាច់ញាតិតាមអ៊ីនធឺណិត និងជាសាធារណៈ ទោះបីជាមានការព្រមានជាច្រើនពីអ្នកជំនាញក្នុងវិស័យសន្តិសុខព័ត៌មានអំពីបញ្ហានេះក៏ដោយ។
កាលពីពេលថ្មីៗនេះ ក្រសួងសន្តិសុខសាធារណៈ ក៏បានធ្វើការព្រមានដល់អ្នកប្រើប្រាស់ទូរស័ព្ទអំពីការលេចចេញនូវឧក្រិដ្ឋជន ឆ្លៀតឱកាសយករូបភាព និងវីដេអូរបស់ប្រជាពលរដ្ឋដែលបង្ហាញជាសាធារណៈនៅលើអ៊ីនធឺណិត រួចធ្វើការកែសម្រួល កាត់ត និងបញ្ចូលគ្នាដើម្បីបង្កើតខ្លឹមសាររសើប ដើម្បីគំរាមកំហែង និងបង្ខូចសារ។ សេចក្តីជូនដំណឹងនោះបានបញ្ជាក់ថា "ប្រជាពលរដ្ឋត្រូវបានណែនាំឱ្យមានការប្រុងប្រយ័ត្ននៅពេលទទួលសារ ឬការហៅទូរសព្ទដែលមានខ្លឹមសារខាងលើ ហើយមិនត្រូវផ្ទេរប្រាក់នៅពេលមានការគំរាមកំហែង។ នៅពេលរកឃើញសញ្ញានៃការក្លែងបន្លំ ឬជំរិតយកទ្រព្យសម្បត្តិ ពួកគេគួរតែរាយការណ៍ទៅភ្នាក់ងារប៉ូលីសដែលនៅជិតបំផុត ហើយរាយការណ៍តាមរយៈកម្មវិធី VNeID" ។
ក្រៅពីការបង្ខូចកេរ្តិ៍ឈ្មោះ ឧក្រិដ្ឋជនក៏អាចប្រើប្រាស់រូបភាព និងវីដេអូសាធារណៈជាច្រើនរបស់ជនរងគ្រោះ ដើម្បីបង្កើតខ្លឹមសារក្លែងក្លាយ ដើម្បីបង្ខូចកេរ្តិ៍ឈ្មោះក្នុងបរិយាកាសការងារ សងសឹកផ្ទាល់ខ្លួន និងបង្កការខូចខាតដល់ស្មារតី និងកិត្តិយស។ គួរកត់សម្គាល់ថាឯកសារក្លែងក្លាយទាំងនេះកាន់តែមានភាពស្មុគ្រស្មាញ និងពិបាកក្នុងការបែងចែកសម្រាប់ទាំងមនុស្សសាមញ្ញ និងអ្នកដែលចាប់អារម្មណ៍លើវិស័យបញ្ញាសិប្បនិមិត្ត។
ការសិក្សាមួយដែលធ្វើឡើងដោយ Tidio ដែលជាក្រុមហ៊ុនប៉ូឡូញដែលបង្កើត AI chatbots ដើម្បីគាំទ្រការលក់កាលពីចុងឆ្នាំមុនបានរកឃើញថាអ្នកប្រើប្រាស់អ៊ីនធឺណិតភាគច្រើនមានបញ្ហាកាន់តែខ្លាំងឡើងក្នុងការបែងចែករវាងរូបភាពដែលបង្កើតឡើងដោយ AI ។ ក្រុមហ៊ុនអះអាងថា 87% នៃអ្នកឆ្លើយតបបានច្រឡំរូបភាព AI ជាមួយនឹងរូបថតរបស់មនុស្សពិត។ លើសពីនេះ 62% នៃអ្នកឆ្លើយសំណួរបានបង្ហាញពីចំណាប់អារម្មណ៍លើ AI និង machine learning ប៉ុន្តែពាក់កណ្តាលនៃក្រុមនេះមិនបានកំណត់អត្តសញ្ញាណរូបភាពដែលបង្កើតដោយបញ្ញាសិប្បនិម្មិតបានត្រឹមត្រូវនោះទេ។
បច្ចុប្បន្ននេះមិនមានបទប្បញ្ញត្តិជាក់លាក់ណាមួយសម្រាប់ការប្រើប្រាស់ AI ក្នុងឧក្រិដ្ឋកម្មតាមអ៊ីនធឺណិតទេ ប៉ុន្តែការប្រើរូបភាពអ្នកដទៃដើម្បីគំរាមកំហែង បង្ខូចកេរ្តិ៍ ឬផ្សព្វផ្សាយព័ត៌មានមិនពិតនៅតែអាចដោះស្រាយបានក្រោមបទប្បញ្ញត្តិទាក់ទងនឹងឧក្រិដ្ឋកម្មនៃការបន្ទាបបន្ថោកអ្នកដទៃ ជំរិតយកទ្រព្យសម្បត្តិ ឬការផ្សព្វផ្សាយផលិតផលវប្បធម៌អាសអាភាស។
ប្រឈមមុខនឹងស្ថានភាពនេះ អ្នកជំនាញបានផ្តល់អនុសាសន៍ថាអ្នកប្រើប្រាស់គួរតែប្រុងប្រយ័ត្ននៅពេលចែករំលែករូបភាពផ្ទាល់ខ្លួននៅលើបណ្តាញសង្គម និងប្រើប្រាស់ឧបករណ៍សុវត្ថិភាពដើម្បីគ្រប់គ្រងភាពឯកជន។
ប្រភព៖ https://thanhnien.vn/canh-giac-ke-xau-loi-dung-ai-ghep-mat-nan-nhan-de-de-doa-tong-tien-185241107153341681.htm
Kommentar (0)