Jennifer DeStefano ស្រឡាំងកាំងនៅពេលដែលនាងលឺសំលេងអំពាវនាវរកជំនួយ ដែលស្តាប់ទៅដូចជាកូនស្រីច្បងរបស់នាង Brianna អាយុ 15 ឆ្នាំ។ បន្ទាប់ពីធ្វើការស៊ើបអង្កេត វាគ្រាន់តែជាការបោកប្រាស់ដោយមានជំនួយពី AI ប៉ុណ្ណោះ។
នៅរសៀលថ្ងៃទី២០ ខែមករា ទូរស័ព្ទរបស់ Jennifer DeStefano បានបន្លឺឡើង ខណៈដែលនាងចេញពីឡានរបស់នាង នៅខាងក្រៅស្ទូឌីយ៉ូរាំដែលកូនស្រីរបស់នាង Aubrey កំពុងហាត់។ អ្នកហៅទូរសព្ទមិនបានស្គាល់ទេ ហើយ DeStefano គ្រោងមិនឆ្លើយ។
ប៉ុន្តែកូនស្រីច្បងរបស់នាងឈ្មោះ Brianna អាយុ 15 ឆ្នាំកំពុងហ្វឹកហាត់សម្រាប់ការប្រណាំងជិះស្គី។ DeStefano បារម្ភថាវាអាចជាការហៅទូរស័ព្ទបន្ទាន់។
“សួស្តី?” នាងបានឆ្លើយតាមឧបករណ៍បំពងសំឡេង ខណៈនាងបានចាក់សោរថយន្ត ហើយចាប់យកកាបូប និងកាបូបយួរដៃរបស់នាង ហើយចូលទៅក្នុងកន្លែងហាត់ប្រាណ។ រំពេចនោះ DeStefano បានឮសំឡេងស្រែក និងយំ។
Jennifer DeStefano និងកូនស្រីពីរនាក់របស់នាង។ រូបថត៖ NVCC។ |
"ម៉ាក់ ខ្ញុំមានបញ្ហា!" សំឡេងក្មេងស្រីម្នាក់បានស្រែកឡើង។ "តើអ្នកបានធ្វើអ្វី? តើមានអ្វីកើតឡើង?" ភ្លាមៗនោះម្តាយបានសួរអ្នកហៅទូរស័ព្ទនៅម្ខាងទៀតនៃខ្សែ។
គ្រានៃការភ័យស្លន់ស្លោ
DeStefano បានប្រាប់ CNN ថាសំឡេងនេះស្តាប់ទៅពិតជាដូច Brianna's ពីការបញ្ចេញសំឡេងទៅអ្វីគ្រប់យ៉ាង។ DeStefano បាននិយាយថា "ខ្ញុំគិតថានាងបានរអិលចេញពីភ្នំ ដែលជាអ្វីដែលកើតឡើងនៅពេលដែលអ្នកកំពុងជិះស្គី។ ដូច្នេះខ្ញុំចាប់ផ្តើមភ័យស្លន់ស្លោ" ។
សំឡេងស្រែកបានបន្លឺឡើង ហើយសំឡេងបុរសខ្លាំងៗចាប់ផ្ដើមបញ្ជា៖ «ស្តាប់ចុះ កូនស្រីឯងនៅក្នុងដៃខ្ញុំ បើឯងទូរស័ព្ទទៅប៉ូលិស ឬអ្នកណាក៏ដោយ ខ្ញុំនឹងចាក់ថ្នាំពេញខ្លួន ខ្ញុំនឹងនាំនាងទៅម៉ិកស៊ិក ហើយមិនឃើញកូនស្រីឯងទៀតទេ»។
DeStefano ខ្វិនភ្លាមៗ។ បន្ទាប់មកនាងបានរត់ចូលទៅក្នុងកន្លែងហាត់ប្រាណដោយញ័រ និងស្រែកឱ្យគេជួយ។ នាងមានអារម្មណ៍ហាក់ដូចជាលង់ទឹកភ្លាម។
DeStefano បានជួបប្រទះនឹងពេលវេលាដ៏គួរឱ្យភ័យខ្លាចមួយ នៅពេលដែលសំឡេងដែលស្តាប់ទៅដូចជា Brianna ហៅរកជំនួយតាមទូរស័ព្ទ។ រូបថត៖ Jennifer DeStefano ។ |
ព្រឹត្តិការណ៍ដ៏ច្របូកច្របល់បានកើតឡើងជាបន្តបន្ទាប់។ ក្រុមចាប់ជំរិតបានទាមទារប្រាក់លោះ ចំនួន 1 លានដុល្លារ ភ្លាមៗ ហើយ DeStefano បានសម្រេចចិត្តហៅប៉ូលីស។ បន្ទាប់ពីការប៉ុនប៉ងជាច្រើនដើម្បីទៅដល់ Brianna "ការចាប់ជំរិត" ត្រូវបានលាតត្រដាង។
ដូចដែលវាបានប្រែក្លាយវាគឺជាការបោកប្រាស់ទាំងអស់។ Brianna ច្របូកច្របល់បានទូរស័ព្ទទៅម្តាយរបស់នាងដើម្បីប្រាប់នាងថានាងមិនដឹងថាអ្វីដែលមានការច្របូកច្របល់នោះទេនៅពេលដែលអ្វីៗគ្រប់យ៉ាងល្អជាមួយនាង។
ប៉ុន្តែសម្រាប់ DeStefano នាងនឹងមិនភ្លេចការហៅទូរស័ព្ទរយៈពេលបួននាទីដ៏គួរឲ្យភ័យខ្លាចនោះឡើយ ដោយសំឡេងចម្លែកនោះ។
DeStefano ជឿថានាងគឺជាជនរងគ្រោះនៃការឆបោកតាមទូរស័ព្ទដោយប្រើបច្ចេកវិទ្យា deepfake ។ ដោយប្រើបច្ចេកវិទ្យា AI នេះ អ្នកចាប់ជំរិតបន្លាចគ្រួសារជនរងគ្រោះជាមួយនឹងសំឡេងដែលត្រូវបានផ្លាស់ប្តូរឱ្យស្រដៀងទៅនឹងសំឡេងរបស់ជនរងគ្រោះ និងទាមទារប្រាក់លោះ។
ផ្នែកងងឹតនៃ AI
យោងតាមលោក Siobhan Johnson អ្នកនាំពាក្យរបស់ការិយាល័យស៊ើបអង្កេតសហព័ន្ធ (FBI) ជាមធ្យម គ្រួសារនៅសហរដ្ឋអាមេរិកបានខាតបង់ប្រហែល 11,000 ដុល្លារ សម្រាប់ការហៅបោកប្រាស់នីមួយៗ។
ជាមធ្យម គ្រួសារនៅសហរដ្ឋអាមេរិកបាត់បង់ប្រហែល 11,000 ដុល្លារ ក្នុងមួយការហៅឆបោក។ រូបថត៖ Matthew Fleming ។ |
ក្នុងឆ្នាំ 2022 ទិន្នន័យពីគណៈកម្មការពាណិជ្ជកម្មសហព័ន្ធអាមេរិក (FTC) បានបង្ហាញថា ជនជាតិអាមេរិកបានខាតបង់សរុបចំនួន 2.6 ពាន់លានដុល្លារ ដោយសារតែការហៅទូរស័ព្ទបោកប្រាស់។
នៅក្នុងការថតសំឡេងនៃការហៅរបស់ DeStefano ដែលផ្តល់ទៅឱ្យ CNN ដោយនាយកដ្ឋានប៉ូលីស Scottsdale ម្តាយនៅឯស្ទូឌីយោរាំព្យាយាមពន្យល់ដល់អ្នកបញ្ជូនអំពីអ្វីដែលកំពុងកើតឡើង។
អ្នកទូរស័ព្ទប្រាប់ថា៖ «ម្ដាយទើបតែដើរចូល ហើយនាងទទួលទូរសព្ទពីអ្នកណាម្នាក់ នោះគឺជាកូនស្រីរបស់គាត់ មានអ្នកចាប់ជំរិតនិយាយថាគាត់ចង់បានមួយលានដុល្លារ គាត់មិនឲ្យគាត់និយាយជាមួយកូនស្រីគាត់ទេ»។
នៅក្នុងផ្ទៃខាងក្រោយ DeStefano អាចត្រូវបានឮស្រែកថា “ខ្ញុំចង់និយាយជាមួយកូនស្រីរបស់ខ្ញុំ”។ អ្នកបញ្ជូនភ្លាមៗបានកំណត់ថាការហៅទូរសព្ទនេះជាការបោកបញ្ឆោត។
ជាការពិត ការហៅក្លែងក្លាយគឺជាការកើតឡើងជាទៀងទាត់នៅទូទាំងសហរដ្ឋអាមេរិក។ ពេលខ្លះអ្នកទូរស័ព្ទទាក់ទងទៅមនុស្សចាស់ដោយអះអាងថាចៅជួបឧបទ្ទវហេតុហើយត្រូវការប្រាក់វះកាត់។
លក្ខណៈទូទៅនៃវិធីសាស្រ្តនេះគឺថា អ្នកចាប់ជំរិតក្លែងក្លាយតែងតែប្រើការថតសំឡេងហ្វូងមនុស្សស្រែក។
ទោះជាយ៉ាងណាក៏ដោយ មន្ត្រីសហព័ន្ធអាមេរិកព្រមានថា ការបោកប្រាស់ទាំងនេះកាន់តែទំនើបទៅៗជាមួយនឹងបច្ចេកវិទ្យាក្លែងបន្លំជ្រៅ ដែលក្លែងបន្លំជាសំឡេងជនរងគ្រោះ ដើម្បីទទួលបានការជឿទុកចិត្តពីអ្នកស្គាល់គ្នា ហើយបន្ទាប់មកបោកប្រាស់ពួកគេនូវប្រាក់។
ការឆបោកជំរិតទារប្រាក់កាន់តែទំនើបជាមួយបច្ចេកវិទ្យាក្លែងបន្លំជ្រៅដែលធ្វើត្រាប់តាមសំឡេងជនរងគ្រោះដើម្បីទទួលបានការទុកចិត្តពីអ្នកស្គាល់គ្នា ហើយបន្ទាប់មកបន្លំប្រាក់។ រូបថត៖ ពិធីការ |
ការអភិវឌ្ឍន៍កម្មវិធី AI ដែលមានតម្លៃថោក និងអាចចូលប្រើបានបានអនុញ្ញាតឱ្យអ្នកបោកប្រាស់អាចក្លូនសំឡេងដោយសេរី និងបង្កើតការសន្ទនាដែលស្តាប់ទៅដូចដើម។
Hany Farid សាស្ត្រាចារ្យផ្នែកវិទ្យាសាស្ត្រកុំព្យូទ័រនៅសាកលវិទ្យាល័យ California, Berkeley បាននិយាយថា "ការគំរាមកំហែងនេះមិនមែនគ្រាន់តែជាការសន្មត់នោះទេ។ យើងកំពុងឃើញអ្នក ក្លែងបន្លំ ប្រើប្រាស់ឧបករណ៍ទាំងនេះ។
Farid បាននិយាយថា ដោយមានជំនួយពីកម្មវិធី AI ការក្លែងបន្លំជាសំឡេងអាចត្រូវបានធ្វើក្នុងតម្លៃត្រឹមតែ 5 ដុល្លារ ក្នុងមួយខែ ហើយអាចចូលប្រើបានយ៉ាងងាយស្រួលសម្រាប់នរណាម្នាក់។
FTC ក៏បានចេញការព្រមានកាលពីខែមីនាថា អ្នកបោកប្រាស់អាចយកឯកសារសំឡេងពី វីដេអូ ប្រព័ន្ធផ្សព្វផ្សាយសង្គមរបស់ជនរងគ្រោះ។
ការប្រើប្រាស់បញ្ញាសិប្បនិមិត្ត ដើម្បីបញ្ចូលមុខទៅក្នុងវីដេអូ ឬសំឡេងក្លែងក្លាយ ដែលត្រូវបានគេស្គាល់ជាទូទៅថា Deepfakes កំពុងក្លាយជារឿងធម្មតា និងកាន់តែគ្រោះថ្នាក់។ នេះគឺជាគ្រោះថ្នាក់ពិតប្រាកដនៅលើអ៊ីនធឺណិត។
បន្ថែមពីលើវីដេអូរសើប ការក្លែងបន្លំជ្រៅក៏អាចបណ្តាលឱ្យមានគ្រោះថ្នាក់ធ្ងន់ធ្ងរផងដែរ ប្រសិនបើប្រើសម្រាប់គោលបំណង នយោបាយ ។ វីដេអូនៃមុខរបស់អតីតប្រធានាធិបតីអាមេរិក លោក បារ៉ាក់ អូបាម៉ា ដែលត្រូវបានបំផ្លិចបំផ្លាញ ដែលបានរីករាលដាលនៅក្នុងឆ្នាំ 2018 បានបង្ហាញថា ឥស្សរជននយោបាយឈានមុខគេក៏អាចក្លាយជាជនរងគ្រោះផងដែរ។
នៅឆ្នាំ 2019 វាជាវេនរបស់លោកស្រី Nancy Pelosi ប្រធានសភាតំណាងរាស្រ្តសហរដ្ឋអាមេរិក ដើម្បីក្លាយជាជនរងគ្រោះ។ វីដេអូដែលបានកែសម្រួលបង្ហាញថា Pelosi កំពុងនិយាយខណៈពេលស្រវឹង ជាមួយនឹងការនិយាយរបស់នាងមិនច្បាស់លាស់។
មិនត្រឹមតែប្រើដើម្បីបញ្ចូលគ្នានូវវីដេអូអាសអាភាសប៉ុណ្ណោះទេ ការក្លែងបន្លំជ្រៅក៏នាំមកនូវក្តីបារម្ភអំពីព័ត៌មានក្លែងក្លាយមុនពេលវេលាសំខាន់ៗដូចជាការបោះឆ្នោតប្រធានាធិបតីសហរដ្ឋអាមេរិកនៅចុងឆ្នាំ 2020។ រូបថត៖ Cnet ។ |
នៅចុងឆ្នាំ 2019 រដ្ឋកាលីហ្វ័រញ៉ារបស់សហរដ្ឋអាមេរិកបានអនុម័តច្បាប់មួយដែលធ្វើឱ្យវាខុសច្បាប់ក្នុងការបង្កើត ឬចែករំលែកវីដេអូក្លែងក្លាយជ្រៅ។ ច្បាប់ចែងជាពិសេសថាវីដេអូដែលបានកែសម្រួលដែលមានរូបភាព វីដេអូ ឬសំឡេងរបស់អ្នកនយោបាយក្នុងរយៈពេល 60 ថ្ងៃនៃការបោះឆ្នោតគឺខុសច្បាប់។
ក្នុងឆ្នាំ 2019 អ្នកស្រាវជ្រាវរបស់អង្គការសហប្រជាជាតិ (UN) ពីរនាក់គឺ Joseph Bullock និង Miguel Luengo-Oroz បាននិយាយថា គំរូ AI របស់ពួកគេដែលត្រូវបានបណ្តុះបណ្តាលលើអត្ថបទ Wikipedia និងសុន្ទរកថាជាង 7,000 ពីមហាសន្និបាតអាចក្លែងបន្លំសុន្ទរកថាដោយមេដឹកនាំពិភពលោកយ៉ាងងាយស្រួល។
ក្រុមនេះនិយាយថា ពួកគេគ្រាន់តែបញ្ចូលពាក្យ AI ពីរបីពាក្យប៉ុណ្ណោះ ដើម្បីបង្កើតអត្ថបទ "គុណភាពខ្ពស់" ដែលមានភាពស៊ីសង្វាក់គ្នា។
ជាឧទាហរណ៍ នៅពេលដែលអ្នកស្រាវជ្រាវបានផ្តល់ចំណងជើងថា "អគ្គលេខាធិការថ្កោលទោសយ៉ាងខ្លាំងចំពោះការវាយប្រហារភេរវកម្មដ៏សាហាវនៅទីក្រុង Mogadishu" AI អាចបង្កើតសុន្ទរកថាដែលបង្ហាញពីការគាំទ្រចំពោះការសម្រេចចិត្តរបស់អង្គការសហប្រជាជាតិ។
ប្រភពតំណ
Kommentar (0)