Vietnam.vn - Nền tảng quảng bá Việt Nam

Deepfake Porn, បញ្ហានៅក្នុងការប្រណាំង AI

Công LuậnCông Luận17/04/2023


Deepfakes គឺជាវីដេអូ និងរូបភាពដែលត្រូវបានបង្កើតជាឌីជីថល ឬផ្លាស់ប្តូរដោយប្រើបញ្ញាសិប្បនិម្មិត (AI) ឬ machine learning (ML)។ រូបភាពអាសអាភាសដែលបង្កើតដោយបច្ចេកវិទ្យាដំបូងបានចាប់ផ្តើមចរាចរនៅលើអ៊ីនធឺណិតកាលពីប៉ុន្មានឆ្នាំមុន នៅពេលដែលអ្នកប្រើប្រាស់ Reddit ចែករំលែកឈុតអាសអាភាសក្លែងក្លាយជាមួយនឹងមុខតារាល្បីៗ។

ការយាយីក្លែងក្លាយក្នុងរូបភាពមនុស្សជាតិ ១

រូបថត៖ ជីអាយ

នរណាម្នាក់អាចក្លាយជាជនរងគ្រោះ។

ចាប់តាំងពីពេលនោះមក អ្នកបង្កើត Deepfake បានបន្តបង្ហោះវីដេអូ និងរូបភាពស្រដៀងគ្នា ដែលផ្តោតលើអ្នកមានឥទ្ធិពលលើអ៊ីនធឺណិត អ្នកកាសែត និងអ្នកផ្សេងទៀតដែលមានប្រវត្តិរូបសាធារណៈ។ វីដេអូបែបនេះរាប់ពាន់មាននៅលើគេហទំព័រជាច្រើន។

ជាមួយនឹងបច្ចេកវិទ្យា AI កាន់តែអាចចូលប្រើបាន នេះអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់បង្វែរនរណាម្នាក់ដែលពួកគេចង់បានទៅជា "តារាអាសអាភាស" ដោយគ្មានការយល់ព្រមពីពួកគេ ឬប្រើប្រាស់បច្ចេកវិទ្យានេះដើម្បីបង្ខូចកេរ្តិ៍ឈ្មោះ ឬបង្ខូចកេរ្តិ៍ឈ្មោះអ្នកដទៃ។

អ្នកជំនាញនិយាយថា បញ្ហានេះអាចកាន់តែអាក្រក់ទៅៗជាមួយនឹងការអភិវឌ្ឍន៍ឧបករណ៍ AI ដែលត្រូវបានបណ្តុះបណ្តាលលើរូបភាពរាប់ពាន់លានពីអ៊ីនធឺណិត និងបង្កើតមាតិកាថ្មីដោយប្រើទិន្នន័យដែលមានស្រាប់។

លោក Adam Dodge ស្ថាបនិក EndTAB ដែលជាក្រុមផ្តល់ការបណ្តុះបណ្តាលស្តីពីការរំលោភបំពានបច្ចេកវិទ្យាបាននិយាយថា "ការពិតគឺថាបច្ចេកវិទ្យានឹងបន្តរីកចម្រើន វានឹងបន្តវិវឌ្ឍ ហើយវានឹងបន្តកាន់តែងាយស្រួលប្រើប្រាស់ និងងាយស្រួលប្រើប្រាស់"។ “ហើយដរាបណាវាកើតឡើង មនុស្សនឹងជៀសមិនរួច… បន្តប្រើប្រាស់បច្ចេកវិទ្យានោះខុសដើម្បីបង្កគ្រោះថ្នាក់ដល់អ្នកដទៃ ជាចម្បងតាមរយៈអំពើហិង្សាផ្លូវភេទតាមអ៊ីនធឺណិត រូបភាពអាសអាភាសក្លែងក្លាយ និងអាក្រាតកាយក្លែងក្លាយ។

Noelle Martin នៃទីក្រុង Perth ប្រទេសអូស្ត្រាលី បានជួបប្រទះការពិតនោះ។ នារី​វ័យ 28 ឆ្នាំ​រូប​នេះ​បាន​រក​ឃើញ​រូប​អាសអាភាស​របស់​នាង​ផ្ទាល់​កាល​ពី 10 ឆ្នាំ​មុន នៅ​ពេល​ដែល​នាង​មិន​ចង់​ដឹង នាង​បាន​ប្រើ Google រូបភាព​របស់​នាង​នៅ​ថ្ងៃ​មួយ​។ រហូត​មក​ដល់​សព្វ​ថ្ងៃ​នេះ Martin និយាយ​ថា នាង​មិន​ទាន់​ដឹង​ថា​អ្នក​ណា​បង្កើត​រូបភាព ឬ​វីដេអូ​អាសអាភាស​ក្លែងក្លាយ​ទាំង​នេះ​ទេ។ នាង​សង្ស័យ​ថា​មាន​នរណា​ម្នាក់​បាន​ប្រើ​រូបភាព​បណ្ដាញ​សង្គម​របស់​នាង​ដើម្បី​បង្កើត​វីដេអូ​អាសអាភាស។

ទោះបីជា Martin បានព្យាយាមទាក់ទងគេហទំព័រដើម្បីលុបវីដេអូទាំងនេះចេញក៏ដោយ ប៉ុន្តែការប្រឹងប្រែងនេះគឺគ្មានប្រយោជន៍ទេ។ អ្នកខ្លះមិនបានឆ្លើយតបទេ។ អ្នកផ្សេងទៀតត្រូវបានដកចេញ ប៉ុន្តែត្រូវបានបង្ហោះឡើងវិញយ៉ាងឆាប់រហ័ស។ អ្នកស្រី Martin បាននិយាយថា “អ្នកមិនអាចឈ្នះបានទេ។ "វានឹងរស់នៅលើអ៊ីនធឺណិតជារៀងរហូត ហើយអាចបំផ្លាញជីវិតរបស់អ្នក"។

ការខិតខំប្រឹងប្រែងរបស់ក្រុមហ៊ុនបច្ចេកវិទ្យាដើម្បីជួសជុលវា។

ម៉ូដែល AI មួយចំនួននិយាយថា ពួកគេបានរឹតបន្តឹងការចូលប្រើរូបភាពអាសអាភាស។

OpenAI បាននិយាយថា ខ្លួនបានលុបមាតិកាអាសអាភាសចេញពីទិន្នន័យដែលប្រើដើម្បីបណ្តុះបណ្តាលម៉ាស៊ីនបង្កើតរូបភាព DALL-E ដែលគួរតែកំណត់សក្តានុពលសម្រាប់វាក្នុងការប្រើប្រាស់ខុស។ ក្រុមហ៊ុនក៏បានត្រងសំណើ និងនិយាយថាខ្លួនរារាំងអ្នកប្រើប្រាស់ពីការបង្កើតរូបភាព AI របស់តារាល្បី និងអ្នកនយោបាយដែលមានកេរ្តិ៍ឈ្មោះខ្ពស់។ Midjourney ដែលជាគំរូមួយផ្សេងទៀតក៏រារាំងការប្រើប្រាស់ពាក្យគន្លឹះជាក់លាក់ និងលើកទឹកចិត្តអ្នកប្រើប្រាស់ឱ្យដាក់ទង់រូបភាពដែលមានបញ្ហាទៅកាន់អ្នកសម្របសម្រួល។

ទន្ទឹមនឹងនោះ Stability AI ក៏បានបញ្ចេញការអាប់ដេតដែលការពារអ្នកប្រើប្រាស់ពីការបង្កើតរូបភាពដែលងាយរងគ្រោះ។ ការផ្លាស់ប្តូរនេះកើតឡើងបន្ទាប់ពីមានរបាយការណ៍ថាអ្នកប្រើប្រាស់មួយចំនួនកំពុងបង្កើតរូបថតអាក្រាតកាយដែលបំផុសគំនិតដោយតារាល្បីដោយប្រើបច្ចេកវិទ្យា។

អ្នកនាំពាក្យស្ថេរភាព AI លោក Motez Bishara បាននិយាយថា តម្រងនេះប្រើការរួមបញ្ចូលគ្នានៃពាក្យគន្លឹះ និងបច្ចេកទេសផ្សេងទៀត ដូចជាការទទួលស្គាល់រូបភាព ដើម្បីរកមើលភាពអាក្រាត។ ប៉ុន្តែអ្នកប្រើប្រាស់អាចរៀបចំកម្មវិធី និងបង្កើតអ្វីក៏ដោយដែលពួកគេចង់បាន ដូចដែលក្រុមហ៊ុនបានចេញផ្សាយកូដប្រភពបើកចំហសម្រាប់កម្មវិធី។

ក្រុមហ៊ុនប្រព័ន្ធផ្សព្វផ្សាយសង្គមមួយចំនួនក៏បានរឹតបន្តឹងច្បាប់ដើម្បីការពារវេទិការបស់ពួកគេឱ្យកាន់តែប្រសើរឡើងពីសម្ភារៈដែលបង្កគ្រោះថ្នាក់។

កាលពីខែមុន TikTok បាននិយាយថា រាល់ខ្លឹមសារដែលក្លែងបន្លំ ឬក្លែងបន្លំត្រូវតែដាក់ស្លាក ដើម្បីបង្ហាញថាវាក្លែងក្លាយ ឬផ្លាស់ប្តូរតាមមធ្យោបាយណាមួយ។

វេទិកាហ្គេម Twitch ថ្មីៗនេះក៏បានធ្វើបច្ចុប្បន្នភាពគោលនយោបាយរបស់ខ្លួនលើការក្លែងបន្លំយ៉ាងជ្រៅ បន្ទាប់ពីអ្នកផ្សាយដ៏ពេញនិយមម្នាក់ឈ្មោះ Atrioc ត្រូវបានគេចាប់បានបើកគេហទំព័រអាសអាភាស Deepfake នៅក្នុងកម្មវិធីរុករករបស់គាត់ក្នុងអំឡុងពេលផ្សាយផ្ទាល់នៅចុងខែមករា។

Apple និង Google បាននិយាយកាលពីពេលថ្មីៗនេះថាពួកគេបានដកកម្មវិធីមួយចេញពីហាងកម្មវិធីរបស់ពួកគេសម្រាប់ការដំណើរការវីដេអូក្លែងក្លាយដែលបង្ហាញពីការរួមភេទខ្លាំងដើម្បីទីផ្សារផលិតផលរបស់ពួកគេ។

ពី​តារា​ចម្រៀង​លោក​ខាង​លិច​ទៅ​ជា​តារា K-pop ។

ការស្រាវជ្រាវលើរឿងអាសអាភាស ក្លែងក្លាយគឺជារឿងធម្មតា ប៉ុន្តែរបាយការណ៍ដែលបានចេញផ្សាយនៅឆ្នាំ 2019 ដោយក្រុមហ៊ុន AI DeepTrace Labs បានរកឃើញថា វាត្រូវបានប្រើប្រាស់អាវុធស្ទើរតែទាំងស្រុងប្រឆាំងនឹងស្ត្រី។ មុខ​វិជ្ជា​ដែល​គេ​កំណត់​គោលដៅ​ច្រើន​បំផុត​គឺ​តារា​សម្ដែង​លោក​ខាង​លិច បន្ទាប់​មក​គឺ​តារា​ចម្រៀង K-pop។

អ្នកនាំពាក្យ Meta លោក Dani Lever បាននិយាយនៅក្នុងសេចក្តីថ្លែងការណ៍មួយថា គោលនយោបាយរបស់ក្រុមហ៊ុនដាក់កម្រិតទាំងមាតិកាមនុស្សពេញវ័យដែលបង្កើតដោយ AI និងមិនមែន AI ហើយវាក៏ដាក់កម្រិតលើទំព័រកម្មវិធីដែលបង្កើតក្លែងក្លាយពីការផ្សាយពាណិជ្ជកម្មនៅលើវេទិការបស់ខ្លួនផងដែរ។

នៅក្នុងខែកុម្ភៈ Meta ក៏ដូចជាគេហទំព័រសម្រាប់មនុស្សពេញវ័យដូចជា Only**** និង Porn*** បានចាប់ផ្តើមចូលរួមក្នុងឧបករណ៍អនឡាញមួយដែលមានឈ្មោះថា Take It Down ដែលអនុញ្ញាតឱ្យក្មេងជំទង់រាយការណ៍អំពីរូបភាព និងវីដេអូអាសអាភាសរបស់ពួកគេពីអ៊ីនធឺណិត។ គេហទំព័រនេះគាំទ្រទាំងវីដេអូដែលបានថតដោយសម្ងាត់ ក៏ដូចជាវីដេអូដែលបង្កើតដោយ AI ។

លោក Hoang Ton (យោងតាម ​​AP)



ប្រភព

Kommentar (0)

No data
No data

ប្រភេទដូចគ្នា

វង្វេងក្នុងពពកនៃទីក្រុងដាឡាត់
ភូមិនៅលើជួរភ្នំ Truong Son
ធ្លាក់​ក្នុង​អន្លង់​ស្នេហ៍​ពណ៌​បៃតង​រដូវ​ស្រូវ​នៅ​ភូលួង
Green Maze នៃ Sac Forest

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

No videos available

ព័ត៌មាន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល