ដូច្នោះ រូបថតនៃការផ្ទុះនៅជិតមន្ទីរបញ្ចកោណដែលបង្កើតឡើងដោយបញ្ញាសិប្បនិមិត្ត (AI) ត្រូវបានចែករំលែកនៅលើបណ្តាញសង្គមរបស់អាមេរិកកាលពីថ្ងៃទី 22 ឧសភា ដែលបណ្តាលឱ្យទីផ្សារភាគហ៊ុនធ្លាក់ចុះក្នុងរយៈពេលដ៏ខ្លី។ អាស្រ័យហេតុនេះ បង្កើនការព្រួយបារម្ភអំពីព័ត៌មានក្លែងក្លាយដែលមានប្រភពមកពី AI ។
រូបថតក្លែងក្លាយដែលបង្កើតដោយ AI នៃការផ្ទុះនៅជិតមន្ទីរប៉ង់តាហ្គោន។ |
Nick Waters of Bellingcat ដែលជាក្រុមពិនិត្យការពិតតាមអ៊ីនធឺណិតបានរហ័សដើម្បីចង្អុលបង្ហាញបញ្ហាគួរឱ្យកត់សម្គាល់មួយចំនួនជាមួយរូបថត។ ទី១ មិនមានសាក្សីណាបញ្ជាក់ពីហេតុការណ៍នោះទេ។ អគារក្នុងរូបថតក៏មិនដូចមន្ទីរប៉ង់តាហ្គោនដែរ។ ព័ត៌មានលម្អិតមិនធម្មតាមួយចំនួន ដូចជាបង្គោលភ្លើង និងសសរខ្មៅដែលលេចចេញពីចិញ្ចើមផ្លូវ គឺជាសញ្ញាថារូបថតនោះមិនមែនជាការពិតទេ។
មានឧបករណ៍បង្កើតឡើងវិញនូវបញ្ញាសិប្បនិមិត្ត (AI) ជាច្រើនដូចជា Midjourney, Dall-e 2 និង Stable Diffusion ដែលអាចបង្កើតរូបភាពដូចជីវិត។ ទោះជាយ៉ាងណាក៏ដោយ ឧបករណ៍ទាំងនេះនឹងបំពេញចន្លោះប្រហោងនៅពេលដែលមានការខ្វះខាតទិន្នន័យ។
Al Jazeera បានបង្កើតវិធានការមួយចំនួនដើម្បីបែងចែករវាងរូបភាពដែលបង្កើតដោយ AI និងរូបថតពិតនៃព្រឹត្តិការណ៍សំខាន់ៗនៅពេលដែលពួកគេបង្ហាញនៅលើអ៊ីនធឺណិតដូចខាងក្រោម៖
- នៅក្នុងព្រឹត្តិការណ៍នៃការផ្ទុះ ឬព្រឹត្តិការណ៍សំខាន់ៗផ្សេងទៀត ជាញឹកញាប់នឹងមានព័ត៌មានពិតពីមនុស្សជាច្រើន និងពីទស្សនៈជាច្រើន។
- តើអ្នកណាកំពុងបង្ហោះមាតិកា? តើគេនៅឯណា ហើយព្រឹត្តិការណ៍នៅឯណា? តើគណនីមួយណាដែលពួកគេកំពុងតាមដាន និងអ្នកណាកំពុងតាមពួកគេ។ តើអ្នកអាចទាក់ទង ឬនិយាយជាមួយពួកគេបានទេ?
- វិភាគរូបភាព និងជុំវិញ៖ រកមើលតម្រុយនៅក្នុងរូបភាពដូចជា ទីតាំងក្បែរនោះ ផ្លាកសញ្ញាចរាចរណ៍ជាដើម ដើម្បីជួយអ្នកកំណត់ទីកន្លែង ឬពេលណាដែលព្រឹត្តិការណ៍អាចនឹងកើតឡើង។
- សម្រាប់រូបភាពមនុស្ស ត្រូវយកចិត្តទុកដាក់លើភ្នែក ដៃ និងឥរិយាបថទូទៅ។ វីដេអូ ដែលបង្កើតដោយ AI ដែលធ្វើត្រាប់តាមមនុស្ស ហៅថាក្លែងក្លាយជ្រៅ មានទំនោរមានបញ្ហាជាមួយនឹងការព្រិចភ្នែក ពីព្រោះសំណុំទិន្នន័យបណ្តុះបណ្តាលភាគច្រើនមិនមានបិទភ្នែកទេ។ ដៃនឹងមិនចាប់វត្ថុបានត្រឹមត្រូវ។
- ស្បែករបស់មនុស្សនៅក្នុងរូបភាពដែលបង្កើតដោយ AI ជារឿយៗនឹងមានភាពរលោង ហើយសូម្បីតែសក់ និងធ្មេញរបស់ពួកគេក៏នឹងល្អឥតខ្ចោះដែរ។
ប្រភព
Kommentar (0)