ប៉ុន្តែយោងតាមទីភ្នាក់ងារសារព័ត៌មាន AFP ការពិត សំឡេងកូនស្រីគឺជាផលិតផលនៃបញ្ញាសិប្បនិមិត្ត (AI) ហើយការចាប់ជំរិតគឺមិនពិតទាំងស្រុងនោះទេ។
ប្រឈមមុខនឹងបញ្ហាក្លែងបន្លំនេះ អ្នកជំនាញនិយាយថា គ្រោះថ្នាក់ដ៏ធំបំផុតរបស់ AI គឺធ្វើឱ្យខ្សែបន្ទាត់រវាងការពិត និងរឿងប្រឌិតមិនច្បាស់ ដោយផ្តល់ឱ្យឧក្រិដ្ឋជនតាមអ៊ីនធឺណិតនូវបច្ចេកវិទ្យាថោក ប៉ុន្តែមានប្រសិទ្ធភាពដើម្បីអនុវត្តចេតនាអាក្រក់របស់ពួកគេ។
នៅក្នុងស៊េរីថ្មីនៃការបោកប្រាស់ដែលកំពុងអង្រួនសហរដ្ឋអាមេរិក អ្នកបោកប្រាស់កំពុងប្រើឧបករណ៍ក្លែងបន្លំសំឡេង AI ដែលមានភាពប្រាកដនិយមគួរឱ្យភ្ញាក់ផ្អើល - ប៉ុន្តែអាចចូលប្រើបានយ៉ាងងាយស្រួលតាមអ៊ីនធឺណិត - ដើម្បីលួចលុយដោយក្លែងបន្លំសមាជិកគ្រួសារនៃជនរងគ្រោះរបស់ពួកគេ។
"ជួយខ្ញុំផង ម៉ាក់ ជួយខ្ញុំផង" Jennifer DeStefano អ្នកស្រុក Arizona បានឮសំឡេងដ៏គួរឱ្យភ័យខ្លាចមួយនៅចុងម្ខាងនៃបន្ទាត់។
70% នៃអ្នកឆ្លើយតបមិនជឿថាពួកគេអាចបែងចែករវាងសំឡេង AI និងសំឡេងមនុស្សពិតនោះទេ។ រូបភាព៖ ទស្សនាវដ្ដី AI
DeStefano ជឿជាក់ 100 ភាគរយថាកូនស្រីអាយុ 15 ឆ្នាំរបស់នាងបានជួបគ្រោះថ្នាក់ជិះស្គី។ DeStefano បានប្រាប់ស្ថានីយទូរទស្សន៍ក្នុងស្រុកមួយកាលពីខែមេសាថា "ខ្ញុំមិនដែលសង្ស័យវាទេ។ នោះគឺជាសំឡេងរបស់នាង។ នោះជារបៀបដែលនាងនឹងយំ។
អ្នកបោកប្រាស់បានដាក់ការហៅទូរស័ព្ទដោយបង្ហាញលេខមិនស្គាល់នៅលើទូរស័ព្ទរបស់លោកស្រី DeStefano ដោយទាមទារប្រាក់លោះរហូតដល់ 1 លានដុល្លារ។ គម្រោងជំរិតទារប្រាក់ដោយថាមពល AI បានដួលរលំក្នុងរយៈពេលប៉ុន្មាននាទី នៅពេលដែលលោកស្រី DeStefano អាចទាក់ទងកូនស្រីរបស់គាត់។
ប៉ុន្តែករណីដ៏គួរឱ្យរន្ធត់នេះបង្ហាញពីសក្តានុពលសម្រាប់ឧក្រិដ្ឋជនតាមអ៊ីនធឺណិតក្នុងការបំពានបច្ចេកវិទ្យា AI ដើម្បីក្លែងបន្លំអ្នកដទៃ។
លោក Wasim Khaled នាយកប្រតិបត្តិនៃក្រុមហ៊ុន Blackbird.AI បានប្រាប់ AFP ថា "សមត្ថភាពក្លូនសំឡេងរបស់ AI ឥឡូវនេះស្ទើរតែមិនអាចបំបែកចេញពីសំឡេងរបស់មនុស្សពិត ដែលអនុញ្ញាតឱ្យអ្នកបោកប្រាស់ទាញយកព័ត៌មាន និងប្រាក់ពីជនរងគ្រោះកាន់តែមានប្រសិទ្ធភាព" ។
ការស្វែងរកដ៏សាមញ្ញនៅលើអ៊ីនធឺណិតបង្កើតនូវកម្មវិធីជាច្រើនដែលអាចប្រើបានដោយសេរី ដែលអាចបង្កើតសំឡេង AI ដោយប្រើការថតគំរូក្នុងរយៈពេលខ្លី សូម្បីតែពីរបីវិនាទីក៏ដោយ។ ជាលទ្ធផល សំឡេងពិតរបស់មនុស្សអាចត្រូវបានគេលួចយ៉ាងងាយស្រួលពីខ្លឹមសារដែលពួកគេបង្ហោះតាមអ៊ីនធឺណិត។
Khaled បានកត់សម្គាល់ថា "ជាមួយនឹងគំរូអូឌីយ៉ូតូចមួយ ការចម្លងសំឡេង AI អាចត្រូវបានប្រើដើម្បីផ្ញើសារជាសំឡេង និងអត្ថបទជាសំឡេង។ វាថែមទាំងអាចប្រើជាឧបករណ៍ផ្លាស់ប្តូរសំឡេងផ្ទាល់ក្នុងអំឡុងពេលហៅទូរស័ព្ទផងដែរ" ។
អ្នកបោកប្រាស់អាចប្រើការសង្កត់សំឡេង ភេទ ឬសូម្បីតែធ្វើត្រាប់តាមវិធីដែលជនរងគ្រោះនិយាយ។
នៅក្នុងការស្ទង់មតិជាសកលលើមនុស្ស 7,000 នៅក្នុងប្រទេសចំនួន 9 រួមទាំងសហរដ្ឋអាមេរិក ម្នាក់ក្នុងចំណោម 4 នាក់បាននិយាយថា ពួកគេត្រូវបានគេបោកប្រាស់ដោយប្រើសំឡេង AI ឬស្គាល់នរណាម្នាក់ដែលត្រូវបានគេបោកប្រាស់តាមរបៀបនោះ។
70% នៃអ្នកឆ្លើយសំណួរបាននិយាយថា ពួកគេមិនមានទំនុកចិត្តថាពួកគេអាចប្រាប់ពីភាពខុសគ្នារវាងសំឡេងដែលបានក្លូន និងសំឡេងពិតនោះទេ។
ទន្ទឹមនឹងនេះដែរ ថ្មីៗនេះ មន្ត្រីសហរដ្ឋអាមេរិកបានព្រមានម្តងហើយម្តងទៀតអំពីការកើនឡើងនូវភាពញឹកញាប់នៃការបោកប្រាស់ដែលផ្តោតលើជីដូនចាស់ជរា។ នៅក្នុងសេណារីយ៉ូធម្មតា អ្នកក្លែងបន្លំនឹងធ្វើជាចៅរបស់ជនរងគ្រោះដែលត្រូវការប្រាក់បន្ទាន់ក្នុងស្ថានភាពលំបាក។
FTC ពិពណ៌នាអំពីការបោកប្រាស់នេះថា "អ្នកទទួលការហៅទូរសព្ទ។ មានសំឡេងភ័យស្លន់ស្លោនៅលើខ្សែ។ វាជាក្មួយប្រុសរបស់អ្នក។ គាត់និយាយថាគាត់មានបញ្ហាធំ។ គាត់បានបំផ្លាញឡានរបស់គាត់ ហើយជាប់គុក។ ប៉ុន្តែអ្នកអាចជួយបានដោយការផ្ញើលុយឱ្យគាត់" FTC ពិពណ៌នាអំពីការឆបោក។
នៅក្នុងមតិយោបល់ខាងក្រោមព្រឹត្តិបត្រព្រមានរបស់ FTC មនុស្សជាច្រើនបាននិយាយថា សមាជិកគ្រួសារវ័យចំណាស់របស់ពួកគេត្រូវបានគេបោកប្រាស់តាមរបៀបនេះ។
នោះគឺជារឿងរបស់ Eddie អាយុ 19 ឆ្នាំមកពីទីក្រុង Chicago ។ ជីតារបស់ Eddie បានទទួលទូរស័ព្ទពីនរណាម្នាក់ដែលក្លែងបន្លំគាត់ដោយនិយាយថាគាត់ត្រូវការលុយព្រោះគាត់បានបង្កគ្រោះថ្នាក់ចរាចរណ៍។
យោងតាមរបាយការណ៍របស់ McAfee Labs បានឱ្យដឹងថា ការនិយាយកុហកនេះពិតជាគួរឱ្យជឿជាក់ខ្លាំងណាស់ ដែលជីតារបស់ Eddie ប្រញាប់ប្រញាល់យកលុយរួមគ្នា ហើយថែមទាំងពិចារណាលើការបញ្ចាំផ្ទះរបស់គាត់ដើម្បីទទួលបានប្រាក់ មុនពេលការកុហកត្រូវបានរកឃើញ។
សាស្ត្រាចារ្យសាលាព័ត៌មាន UC Berkeley លោក Hany Farid បានប្រាប់ AFP ថា "ដោយសារតែវាងាយស្រួលណាស់ក្នុងការបង្កើតសំឡេងដែលមានលក្ខណៈប្រាកដនិយមខ្ពស់ ស្ទើរតែគ្រប់គ្នាដែលមានវត្តមាននៅលើអ៊ីនធឺណិតគឺងាយរងគ្រោះ"។ "ការបោកប្រាស់ទាំងនេះកំពុងកើនឡើង និងរីករាលដាល។"
នៅដើមឆ្នាំ 2023 ការចាប់ផ្តើមអាជីវកម្ម AI ElevenLabs បានសារភាពថាឧបករណ៍ចម្លងសំឡេងរបស់វាអាចត្រូវបានប្រើប្រាស់ខុសសម្រាប់គោលបំណងព្យាបាទ។ ជាពិសេស អ្នកប្រើផលិតផលរបស់ក្រុមហ៊ុនមួយបានបង្ហោះឃ្លីបសំឡេងក្លែងក្លាយដែលបង្ហាញពីតារាសម្ដែង Emma Watson អានជីវប្រវត្តិ Mein Kampf របស់មេដឹកនាំណាស៊ីអាល្លឺម៉ង់ Adolf Hitler។
យើងកំពុងដំណើរការយ៉ាងលឿន ដែលអ្នកមិនអាចជឿជាក់លើអ្វីគ្រប់យ៉ាងដែលអ្នកឃើញនៅលើអ៊ីនធឺណិត ដូច្នេះយើងត្រូវការបច្ចេកវិទ្យាថ្មីដើម្បីដឹងថាមនុស្សដែលអ្នកកំពុងនិយាយជាមួយនោះពិតជានរណាដែលពួកគេនិយាយថាពួកគេជានរណា ឬ Gal Tal-Hochberg ប្រធានផ្នែកបច្ចេកវិទ្យានៃក្រុមហ៊ុនបណ្តាក់ទុន Team8 បានប្រាប់ AFP ។
នេះបើយោងតាមសារព័ត៌មាន VNA/Tin Tuc
ប្រភពតំណ
Kommentar (0)