
អូស្ត្រាលីបង្កើតបច្ចេកវិទ្យា AI ដើម្បីរកសំឡេងក្លែងក្លាយជ្រៅជាមួយភាពជាក់លាក់ជិតស្និទ្ធ - រូបភាពរូបភាព៖ REUTERS
អ្នកវិទ្យាសាស្ត្រ នៅអង្គការស្រាវជ្រាវវិទ្យាសាស្ត្រ និងឧស្សាហកម្ម Commonwealth (CSIRO) សាកលវិទ្យាល័យសហព័ន្ធអូស្ត្រាលី និងសាកលវិទ្យាល័យ RMIT បានបង្កើតវិធីសាស្រ្តដោយជោគជ័យក្នុងការរកឃើញសំឡេងក្លែងបន្លំជ្រៅជាមួយនឹងភាពត្រឹមត្រូវ និងអាចសម្របខ្លួនបាន។
CSIRO បាននិយាយថា បច្ចេកទេសថ្មីដែលហៅថា Rehearsal with Auxiliary-Informed Sampling (RAIS) ត្រូវបានរចនាឡើងជាពិសេសដើម្បីស្វែងរកសំឡេងក្លែងក្លាយ ដែលជាការគំរាមកំហែងកាន់តែខ្លាំងឡើងនៅក្នុងឧក្រិដ្ឋកម្មតាមអ៊ីនធឺណិត ជាមួយនឹងហានិភ័យរួមទាំងការឆ្លងកាត់ប្រព័ន្ធផ្ទៀងផ្ទាត់ជីវមាត្រសំឡេង ការក្លែងបន្លំ និងការផ្សព្វផ្សាយព័ត៌មានមិនពិត។
បច្ចេកទេស RAIS មិនត្រឹមតែកំណត់ភាពត្រឹមត្រូវនៃបទអូឌីយ៉ូប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងធានាបាននូវការអនុវត្តខ្ពស់ផងដែរ ទោះបីជាការវាយប្រហារក្លែងក្លាយនៅតែបន្តវិវត្ត និងផ្លាស់ប្តូរក៏ដោយ។
វេជ្ជបណ្ឌិត Kristen Moore សហអ្នកនិពន្ធនៃការសិក្សានៅ Data61 - អង្គភាពទិន្នន័យ និងឌីជីថលរបស់ CSIRO បានចែករំលែកថា គោលដៅរបស់ក្រុមគឺដើម្បីបង្កើតប្រព័ន្ធរាវរកដែលអាចធ្វើបច្ចុប្បន្នភាពគំរូ deepfake ថ្មីដោយមិនចាំបាច់បង្ហាត់គំរូពីដំបូងឡើយ ជៀសវាងបាតុភូតនៃគំរូភ្លេចទិន្នន័យចាស់នៅពេលធ្វើការកែតម្រូវ។
Moore បានពន្យល់ថា RAIS ដោះស្រាយបញ្ហានេះដោយជ្រើសរើសដោយស្វ័យប្រវត្តិ និងរក្សាទុកនូវសំណុំតូចមួយនៃ deepfakes ពីមុន រួមទាំងមុខងារសំឡេងដែលលាក់ ដើម្បីជួយ AI រៀនប្រភេទ deepfake ថ្មី ខណៈពេលដែលរក្សាចំនេះដឹងចាស់។ Moore បានពន្យល់។
ជាពិសេស RAIS ដំណើរការដោយផ្អែកលើដំណើរការជ្រើសរើសដ៏ឆ្លាតវៃដែលបង្កើត "ស្លាកជំនួយ" សម្រាប់គំរូសំឡេងនីមួយៗ។ ការរួមបញ្ចូលគ្នានៃស្លាកជំនួយទាំងនេះ ជាជាងគ្រាន់តែដាក់ស្លាកពួកវាថា "ពិត" ឬ "ក្លែងក្លាយ" ធានាបាននូវសំណុំទិន្នន័យបណ្តុះបណ្តាលដ៏សម្បូរបែប និងចម្រុះ។ យន្តការនេះធ្វើអោយប្រសើរឡើងយ៉ាងខ្លាំងនូវសមត្ថភាពរបស់ប្រព័ន្ធក្នុងការចងចាំ និងសម្របខ្លួនតាមពេលវេលា។
យោងតាម CSIRO ក្នុងអំឡុងពេលធ្វើតេស្ត RAIS បានដំណើរការជាងវិធីសាស្រ្តផ្សេងទៀតជាមួយនឹងអត្រាកំហុសជាមធ្យម 1.95% ឆ្លងកាត់ការធ្វើតេស្តចំនួនប្រាំជាប់គ្នា។ កូដប្រភពសម្រាប់បច្ចេកទេសនេះត្រូវបានដាក់ឱ្យប្រើប្រាស់នៅលើ GitHub ដែលជាគេហទំព័រដែលមានឯកទេសក្នុងការផ្ទុកកូដប្រភពអនឡាញដោយផ្អែកលើវេទិកា Git ។
ប្រភព៖ https://tuoitre.vn/uc-phat-trien-cong-cu-vach-tran-giong-noi-gia-bang-deepfake-20251112092232468.htm






Kommentar (0)