Vietnam.vn - Nền tảng quảng bá Việt Nam

បទពិសោធន៍ដ៏រន្ធត់ជាមួយនឹងសំឡេង AI blackmail

ZNewsZNews04/05/2023


Jennifer DeStefano ស្រឡាំងកាំងនៅពេលដែលនាងលឺសំលេងអំពាវនាវរកជំនួយ ដែលស្តាប់ទៅដូចជាកូនស្រីច្បងរបស់នាង Brianna អាយុ 15 ឆ្នាំ។ បន្ទាប់ពីធ្វើការស៊ើបអង្កេត វាគ្រាន់តែជាការបោកប្រាស់ដោយមានជំនួយពី AI ប៉ុណ្ណោះ។

នៅរសៀលថ្ងៃទី២០ ខែមករា ទូរស័ព្ទរបស់ Jennifer DeStefano បានបន្លឺឡើង ខណៈដែលនាងចេញពីឡានរបស់នាង នៅខាងក្រៅស្ទូឌីយ៉ូរាំដែលកូនស្រីរបស់នាង Aubrey កំពុងហាត់។ អ្នក​ហៅ​ទូរសព្ទ​មិន​បាន​ស្គាល់​ទេ ហើយ DeStefano គ្រោង​មិន​ឆ្លើយ។

ប៉ុន្តែកូនស្រីច្បងរបស់នាងឈ្មោះ Brianna អាយុ 15 ឆ្នាំកំពុងហ្វឹកហាត់សម្រាប់ការប្រណាំងជិះស្គី។ DeStefano បារម្ភថាវាអាចជាការហៅទូរស័ព្ទបន្ទាន់។

“សួស្តី?” នាង​បាន​ឆ្លើយ​តាម​ឧបករណ៍​បំពង​សំឡេង ខណៈ​នាង​បាន​ចាក់សោ​រថយន្ត ហើយ​ចាប់​យក​កាបូប និង​កាបូប​យួរដៃ​របស់​នាង ហើយ​ចូល​ទៅ​ក្នុង​កន្លែង​ហាត់ប្រាណ​។ រំពេចនោះ DeStefano បានឮសំឡេងស្រែក និងយំ។

AI anh 1

Jennifer DeStefano និងកូនស្រីពីរនាក់របស់នាង។ រូបថត៖ NVCC។

"ម៉ាក់ ខ្ញុំមានបញ្ហា!" សំឡេងក្មេងស្រីម្នាក់បានស្រែកឡើង។ "តើអ្នកបានធ្វើអ្វី? តើមានអ្វីកើតឡើង?" ភ្លាមៗនោះម្តាយបានសួរអ្នកហៅទូរស័ព្ទនៅម្ខាងទៀតនៃខ្សែ។

គ្រានៃការភ័យស្លន់ស្លោ

DeStefano បានប្រាប់ CNN ថាសំឡេងនេះស្តាប់ទៅពិតជាដូច Brianna's ពីការបញ្ចេញសំឡេងទៅអ្វីគ្រប់យ៉ាង។ DeStefano បាននិយាយថា "ខ្ញុំគិតថានាងបានរអិលចេញពីភ្នំ ដែលជាអ្វីដែលកើតឡើងនៅពេលដែលអ្នកកំពុងជិះស្គី។ ដូច្នេះខ្ញុំចាប់ផ្តើមភ័យស្លន់ស្លោ" ។

សំឡេង​ស្រែក​បាន​បន្លឺ​ឡើង ហើយ​សំឡេង​បុរស​ខ្លាំង​ៗ​ចាប់​ផ្ដើម​បញ្ជា៖ «ស្តាប់​ចុះ កូន​ស្រី​ឯង​នៅ​ក្នុង​ដៃ​ខ្ញុំ បើ​ឯង​ទូរស័ព្ទ​ទៅ​ប៉ូលិស ឬ​អ្នក​ណា​ក៏​ដោយ ខ្ញុំ​នឹង​ចាក់​ថ្នាំ​ពេញ​ខ្លួន ខ្ញុំ​នឹង​នាំ​នាង​ទៅ​ម៉ិកស៊ិក ហើយ​មិន​ឃើញ​កូន​ស្រី​ឯង​ទៀត​ទេ»។

DeStefano ខ្វិនភ្លាមៗ។ បន្ទាប់មកនាងបានរត់ចូលទៅក្នុងកន្លែងហាត់ប្រាណដោយញ័រ និងស្រែកឱ្យគេជួយ។ នាង​មាន​អារម្មណ៍​ហាក់​ដូច​ជា​លង់​ទឹក​ភ្លាម។

AI anh 2

DeStefano បានជួបប្រទះនឹងពេលវេលាដ៏គួរឱ្យភ័យខ្លាចមួយ នៅពេលដែលសំឡេងដែលស្តាប់ទៅដូចជា Brianna ហៅរកជំនួយតាមទូរស័ព្ទ។ រូបថត៖ Jennifer DeStefano ។

ព្រឹត្តិការណ៍ដ៏ច្របូកច្របល់បានកើតឡើងជាបន្តបន្ទាប់។ ក្រុមចាប់ជំរិតបានទាមទារប្រាក់លោះ ចំនួន 1 លានដុល្លារ ភ្លាមៗ ហើយ DeStefano បានសម្រេចចិត្តហៅប៉ូលីស។ បន្ទាប់ពីការប៉ុនប៉ងជាច្រើនដើម្បីទៅដល់ Brianna "ការចាប់ជំរិត" ត្រូវបានលាតត្រដាង។

ដូចដែលវាបានប្រែក្លាយវាគឺជាការបោកប្រាស់ទាំងអស់។ Brianna ច្របូកច្របល់បានទូរស័ព្ទទៅម្តាយរបស់នាងដើម្បីប្រាប់នាងថានាងមិនដឹងថាអ្វីដែលមានការច្របូកច្របល់នោះទេនៅពេលដែលអ្វីៗគ្រប់យ៉ាងល្អជាមួយនាង។

ប៉ុន្តែ​សម្រាប់ DeStefano នាង​នឹង​មិន​ភ្លេច​ការ​ហៅ​ទូរស័ព្ទ​រយៈពេល​បួន​នាទី​ដ៏​គួរ​ឲ្យ​ភ័យខ្លាច​នោះ​ឡើយ ដោយ​សំឡេង​ចម្លែក​នោះ។

DeStefano ជឿថានាងគឺជាជនរងគ្រោះនៃការឆបោកតាមទូរស័ព្ទដោយប្រើបច្ចេកវិទ្យា deepfake ។ ដោយប្រើបច្ចេកវិទ្យា AI នេះ អ្នកចាប់ជំរិតបន្លាចគ្រួសារជនរងគ្រោះជាមួយនឹងសំឡេងដែលត្រូវបានផ្លាស់ប្តូរឱ្យស្រដៀងទៅនឹងសំឡេងរបស់ជនរងគ្រោះ និងទាមទារប្រាក់លោះ។

ផ្នែកងងឹតនៃ AI

យោងតាមលោក Siobhan Johnson អ្នកនាំពាក្យរបស់ការិយាល័យស៊ើបអង្កេតសហព័ន្ធ (FBI) ជាមធ្យម គ្រួសារនៅសហរដ្ឋអាមេរិកបានខាតបង់ប្រហែល 11,000 ដុល្លារ សម្រាប់ការហៅបោកប្រាស់នីមួយៗ។

AI anh 3

ជាមធ្យម គ្រួសារនៅសហរដ្ឋអាមេរិកបាត់បង់ប្រហែល 11,000 ដុល្លារ ក្នុងមួយការហៅឆបោក។ រូបថត៖ Matthew Fleming ។

ក្នុងឆ្នាំ 2022 ទិន្នន័យពីគណៈកម្មការពាណិជ្ជកម្មសហព័ន្ធអាមេរិក (FTC) បានបង្ហាញថា ជនជាតិអាមេរិកបានខាតបង់សរុបចំនួន 2.6 ពាន់លានដុល្លារ ដោយសារតែការហៅទូរស័ព្ទបោកប្រាស់។

នៅក្នុងការថតសំឡេងនៃការហៅរបស់ DeStefano ដែលផ្តល់ទៅឱ្យ CNN ដោយនាយកដ្ឋានប៉ូលីស Scottsdale ម្តាយនៅឯស្ទូឌីយោរាំព្យាយាមពន្យល់ដល់អ្នកបញ្ជូនអំពីអ្វីដែលកំពុងកើតឡើង។

អ្នក​ទូរស័ព្ទ​ប្រាប់​ថា៖ «ម្ដាយ​ទើប​តែ​ដើរ​ចូល ហើយ​នាង​ទទួល​ទូរសព្ទ​ពី​អ្នក​ណា​ម្នាក់ នោះ​គឺ​ជា​កូន​ស្រី​របស់​គាត់ មាន​អ្នក​ចាប់​ជំរិត​និយាយ​ថា​គាត់​ចង់​បាន​មួយ​លាន​ដុល្លារ គាត់​មិន​ឲ្យ​គាត់​និយាយ​ជាមួយ​កូន​ស្រី​គាត់​ទេ»។

នៅ​ក្នុង​ផ្ទៃ​ខាង​ក្រោយ DeStefano អាច​ត្រូវ​បាន​ឮ​ស្រែក​ថា “ខ្ញុំចង់​និយាយ​ជាមួយ​កូន​ស្រី​របស់​ខ្ញុំ”។ អ្នកបញ្ជូនភ្លាមៗបានកំណត់ថាការហៅទូរសព្ទនេះជាការបោកបញ្ឆោត។

ជាការពិត ការហៅក្លែងក្លាយគឺជាការកើតឡើងជាទៀងទាត់នៅទូទាំងសហរដ្ឋអាមេរិក។ ពេល​ខ្លះ​អ្នក​ទូរស័ព្ទ​ទាក់ទង​ទៅ​មនុស្ស​ចាស់​ដោយ​អះអាង​ថា​ចៅ​ជួប​ឧបទ្ទវហេតុ​ហើយ​ត្រូវ​ការ​ប្រាក់​វះកាត់។

លក្ខណៈទូទៅនៃវិធីសាស្រ្តនេះគឺថា អ្នកចាប់ជំរិតក្លែងក្លាយតែងតែប្រើការថតសំឡេងហ្វូងមនុស្សស្រែក។

ទោះជាយ៉ាងណាក៏ដោយ មន្ត្រីសហព័ន្ធអាមេរិកព្រមានថា ការបោកប្រាស់ទាំងនេះកាន់តែទំនើបទៅៗជាមួយនឹងបច្ចេកវិទ្យាក្លែងបន្លំជ្រៅ ដែលក្លែងបន្លំជាសំឡេងជនរងគ្រោះ ដើម្បីទទួលបានការជឿទុកចិត្តពីអ្នកស្គាល់គ្នា ហើយបន្ទាប់មកបោកប្រាស់ពួកគេនូវប្រាក់។

AI anh 4

ការ​ឆបោក​ជំរិត​ទារប្រាក់​កាន់តែ​ទំនើប​ជាមួយ​បច្ចេកវិទ្យា​ក្លែងបន្លំ​ជ្រៅ​ដែល​ធ្វើ​ត្រាប់​តាម​សំឡេង​ជនរងគ្រោះ​ដើម្បី​ទទួលបាន​ការទុកចិត្ត​ពី​អ្នក​ស្គាល់គ្នា ហើយ​បន្ទាប់មក​បន្លំ​ប្រាក់។ រូបថត៖ ពិធីការ

ការអភិវឌ្ឍន៍កម្មវិធី AI ដែលមានតម្លៃថោក និងអាចចូលប្រើបានបានអនុញ្ញាតឱ្យអ្នកបោកប្រាស់អាចក្លូនសំឡេងដោយសេរី និងបង្កើតការសន្ទនាដែលស្តាប់ទៅដូចដើម។

Hany Farid សាស្ត្រាចារ្យផ្នែកវិទ្យាសាស្ត្រកុំព្យូទ័រនៅសាកលវិទ្យាល័យ California, Berkeley បាននិយាយថា "ការគំរាមកំហែងនេះមិនមែនគ្រាន់តែជាការសន្មត់នោះទេ។ យើងកំពុងឃើញអ្នក ក្លែងបន្លំ ប្រើប្រាស់ឧបករណ៍ទាំងនេះ។

Farid បាននិយាយថា ដោយមានជំនួយពីកម្មវិធី AI ការក្លែងបន្លំជាសំឡេងអាចត្រូវបានធ្វើក្នុងតម្លៃត្រឹមតែ 5 ដុល្លារ ក្នុងមួយខែ ហើយអាចចូលប្រើបានយ៉ាងងាយស្រួលសម្រាប់នរណាម្នាក់។

FTC ក៏​បាន​ចេញ​ការ​ព្រមាន​កាល​ពី​ខែ​មីនា​ថា អ្នក​បោក​ប្រាស់​អាច​យក​ឯកសារ​សំឡេង​ពី ​វីដេអូ ​ប្រព័ន្ធ​ផ្សព្វផ្សាយ​សង្គម​របស់​ជន​រង​គ្រោះ។

ការប្រើប្រាស់បញ្ញាសិប្បនិមិត្ត ដើម្បីបញ្ចូលមុខទៅក្នុងវីដេអូ ឬសំឡេងក្លែងក្លាយ ដែលត្រូវបានគេស្គាល់ជាទូទៅថា Deepfakes កំពុងក្លាយជារឿងធម្មតា និងកាន់តែគ្រោះថ្នាក់។ នេះគឺជាគ្រោះថ្នាក់ពិតប្រាកដនៅលើអ៊ីនធឺណិត។

បន្ថែមពីលើវីដេអូរសើប ការក្លែងបន្លំជ្រៅក៏អាចបណ្តាលឱ្យមានគ្រោះថ្នាក់ធ្ងន់ធ្ងរផងដែរ ប្រសិនបើប្រើសម្រាប់គោលបំណង នយោបាយ ។ វីដេអូនៃមុខរបស់អតីតប្រធានាធិបតីអាមេរិក លោក បារ៉ាក់ អូបាម៉ា ដែលត្រូវបានបំផ្លិចបំផ្លាញ ដែលបានរីករាលដាលនៅក្នុងឆ្នាំ 2018 បានបង្ហាញថា ឥស្សរជននយោបាយឈានមុខគេក៏អាចក្លាយជាជនរងគ្រោះផងដែរ។

នៅឆ្នាំ 2019 វាជាវេនរបស់លោកស្រី Nancy Pelosi ប្រធានសភាតំណាងរាស្រ្តសហរដ្ឋអាមេរិក ដើម្បីក្លាយជាជនរងគ្រោះ។ វីដេអូដែលបានកែសម្រួលបង្ហាញថា Pelosi កំពុងនិយាយខណៈពេលស្រវឹង ជាមួយនឹងការនិយាយរបស់នាងមិនច្បាស់លាស់។

AI anh 5

មិនត្រឹមតែប្រើដើម្បីបញ្ចូលគ្នានូវវីដេអូអាសអាភាសប៉ុណ្ណោះទេ ការក្លែងបន្លំជ្រៅក៏នាំមកនូវក្តីបារម្ភអំពីព័ត៌មានក្លែងក្លាយមុនពេលវេលាសំខាន់ៗដូចជាការបោះឆ្នោតប្រធានាធិបតីសហរដ្ឋអាមេរិកនៅចុងឆ្នាំ 2020។ រូបថត៖ Cnet ។

នៅចុងឆ្នាំ 2019 រដ្ឋកាលីហ្វ័រញ៉ារបស់សហរដ្ឋអាមេរិកបានអនុម័តច្បាប់មួយដែលធ្វើឱ្យវាខុសច្បាប់ក្នុងការបង្កើត ឬចែករំលែកវីដេអូក្លែងក្លាយជ្រៅ។ ច្បាប់ចែងជាពិសេសថាវីដេអូដែលបានកែសម្រួលដែលមានរូបភាព វីដេអូ ឬសំឡេងរបស់អ្នកនយោបាយក្នុងរយៈពេល 60 ថ្ងៃនៃការបោះឆ្នោតគឺខុសច្បាប់។

ក្នុងឆ្នាំ 2019 អ្នកស្រាវជ្រាវរបស់អង្គការសហប្រជាជាតិ (UN) ពីរនាក់គឺ Joseph Bullock និង Miguel Luengo-Oroz បាននិយាយថា គំរូ AI របស់ពួកគេដែលត្រូវបានបណ្តុះបណ្តាលលើអត្ថបទ Wikipedia និងសុន្ទរកថាជាង 7,000 ពីមហាសន្និបាតអាចក្លែងបន្លំសុន្ទរកថាដោយមេដឹកនាំពិភពលោកយ៉ាងងាយស្រួល។

ក្រុមនេះនិយាយថា ពួកគេគ្រាន់តែបញ្ចូលពាក្យ AI ពីរបីពាក្យប៉ុណ្ណោះ ដើម្បីបង្កើតអត្ថបទ "គុណភាពខ្ពស់" ដែលមានភាពស៊ីសង្វាក់គ្នា។

ជាឧទាហរណ៍ នៅពេលដែលអ្នកស្រាវជ្រាវបានផ្តល់ចំណងជើងថា "អគ្គលេខាធិការថ្កោលទោសយ៉ាងខ្លាំងចំពោះការវាយប្រហារភេរវកម្មដ៏សាហាវនៅទីក្រុង Mogadishu" AI អាចបង្កើតសុន្ទរកថាដែលបង្ហាញពីការគាំទ្រចំពោះការសម្រេចចិត្តរបស់អង្គការសហប្រជាជាតិ។



ប្រភពតំណ

Kommentar (0)

No data
No data
PIECES of HUE - បំណែកនៃ Hue
ទិដ្ឋភាព​វេទមន្ត​នៅ​លើ​ភ្នំ​តែ​ "ទ្រុង​" នៅ​ភូថូ
កោះចំនួន 3 នៅតំបន់កណ្តាលត្រូវបានគេប្រដូចទៅនឹងប្រទេសម៉ាល់ឌីវ ដែលទាក់ទាញភ្ញៀវទេសចរនៅរដូវក្តៅ
មើលទីក្រុងឆ្នេរសមុទ្រ Quy Nhon នៃ Gia Lai នៅពេលយប់
រូបភាពវាលស្រែរាបស្មើនៅភូថូ ជម្រាលថ្នមៗ ភ្លឺ និងស្រស់ស្អាតដូចកញ្ចក់មុនរដូវដាំដុះ
រោងចក្រ Z121 បានត្រៀមខ្លួនរួចរាល់ហើយសម្រាប់រាត្រីចុងក្រោយនៃកាំជ្រួចអន្តរជាតិ
ទស្សនាវដ្ដីទេសចរណ៍ដ៏ល្បីល្បាញសរសើររូងភ្នំ Son Doong ថាជា "អស្ចារ្យបំផុតនៅលើភពផែនដី"
ល្អាង​អាថ៌កំបាំង​ទាក់ទាញ​ភ្ញៀវ​ទេសចរ​លោក​ខាង​លិច​ដែល​ប្រដូច​ទៅ​នឹង 'ល្អាង Phong Nha' នៅ Thanh Hoa
ស្វែងយល់ពីសម្រស់កំណាព្យនៃឆ្នេរសមុទ្រ Vinh Hy
តើតែថ្លៃបំផុតនៅទីក្រុងហាណូយ ដែលមានតម្លៃជាង ១០លានដុង/គីឡូក្រាម កែច្នៃដោយរបៀបណា?

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

No videos available

ព័ត៌មាន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល