នៅក្នុងការបង្ហោះប្លក់នៅថ្ងៃទី 30 ខែសីហា មជ្ឈមណ្ឌលសន្តិសុខតាមអ៊ីនធឺណិតរបស់ចក្រភពអង់គ្លេស (NCSC) បាននិយាយថា អ្នកជំនាញនៅតែមិនយល់ច្បាស់អំពីបញ្ហាសុវត្ថិភាពអ៊ីនធឺណិតដែលមានសក្តានុពលដែលទាក់ទងនឹងក្បួនដោះស្រាយដែលអាចធ្វើអន្តរកម្ម "ដូចមនុស្ស" ដែលហៅថាគំរូភាសាធំ (LLM)។
NCSC ព្រមានថាវាអាចបង្កហានិភ័យ ជាពិសេសនៅពេលដែលគំរូបែបនេះត្រូវបានបញ្ចូលទៅក្នុងដំណើរការអាជីវកម្ម។ ថ្មីៗនេះ អ្នកសិក្សា និងអ្នកស្រាវជ្រាវក៏បានរកឃើញវិធីដើម្បី "បញ្ឆោត" AI ដោយផ្តល់ឱ្យវានូវពាក្យបញ្ជាមិនពិត ឬជៀសវាងការការពារដែលមានស្រាប់។
ឧបករណ៍ AI ជំនាន់ថ្មីកំពុងត្រូវបានប្រើប្រាស់ជា chatbots ដែលត្រូវបានគេរំពឹងថានឹងជំនួសមិនត្រឹមតែការស្វែងរកតាមអ៊ីនធឺណិតប៉ុណ្ណោះទេ ថែមទាំងសេវាកម្មអតិថិជន និងការហៅទូរស័ព្ទលក់ផងដែរ។ |
ឧទាហរណ៍ AI chatbot ដែលដាក់ពង្រាយនៅធនាគារអាចត្រូវបានបញ្ឆោតឱ្យធ្វើប្រតិបត្តិការដែលគ្មានការអនុញ្ញាត ប្រសិនបើពួក Hacker បង្កើត "ការណែនាំ" ត្រឹមត្រូវ។
ដូច្នេះ នៅពេលសំដៅទៅលើការចេញផ្សាយ AI beta នាពេលថ្មីៗនេះ NCSC ព្រមានថា "ការកសាងសេវាកម្មរបស់អង្គការនៅជុំវិញ LLMs ត្រូវតែមានការប្រុងប្រយ័ត្ន ដូចជាប្រសិនបើពួកគេកំពុងប្រើប្រាស់ផលិតផលថ្មីនៅក្នុងបេតា។"
ការស្ទង់មតិរបស់ Reuters/Ipsos ថ្មីៗនេះបានរកឃើញថាបុគ្គលិកសាជីវកម្មជាច្រើនកំពុងប្រើប្រាស់ឧបករណ៍ដូចជា ChatGPT ដើម្បីបំពេញការងារជាមូលដ្ឋានដូចជាការព្រាងអ៊ីមែល សង្ខេបឯកសារ ឬការប្រមូលទិន្នន័យស្រាវជ្រាវដំបូង។
ក្នុងចំណោមបុគ្គលិកទាំងនេះ មានតែបុគ្គលិកប្រហែល 10% ប៉ុណ្ណោះដែលបាននិយាយថា ថ្នាក់លើរបស់ពួកគេបានហាមប្រាមការប្រើប្រាស់ឧបករណ៍ AI ខាងក្រៅយ៉ាងច្បាស់ ហើយ 25% មិនដឹងថាក្រុមហ៊ុនអនុញ្ញាតឱ្យប្រើប្រាស់បច្ចេកវិទ្យានេះឬអត់។
Oseloka Obiora ប្រធានផ្នែកបច្ចេកវិទ្យានៅក្រុមហ៊ុនសន្តិសុខ RiverSafe បាននិយាយថា ការប្រណាំងដើម្បីបញ្ចូល AI ទៅក្នុងប្រតិបត្តិការអាជីវកម្មនឹងមាន "ផលវិបាកមហន្តរាយ" ប្រសិនបើអ្នកដឹកនាំអាជីវកម្មមិនធ្វើការត្រួតពិនិត្យចាំបាច់។ "ជំនួសឱ្យការដេញតាមនិន្នាការ AI អ្នកដឹកនាំគួរតែគិតឱ្យបានហ្មត់ចត់ និងធ្វើការវាយតម្លៃអំពីអត្ថប្រយោជន៍ និងហានិភ័យ និងវិធានការសុវត្ថិភាពដែលត្រូវការដើម្បីការពារអាជីវកម្ម"។
ព័ត៌មានក្លែងក្លាយ និងពួក Hacker
អាជ្ញាធរនៅជុំវិញ ពិភពលោក ក៏កំពុងស្វែងរកការគ្រប់គ្រងការរីកសាយភាយនៃ LLMs ដូចជា ChatGPT របស់ OpenAI ផងដែរ។ ការព្រួយបារម្ភអំពីសុវត្ថិភាពនៃបច្ចេកវិទ្យាថ្មីត្រូវបានគេមើលឃើញថាជាការផ្តោតសំខាន់លើគោលនយោបាយ ដោយសហរដ្ឋអាមេរិក និងកាណាដាថ្មីៗនេះបានរកឃើញករណីកាន់តែច្រើននៃពួក Hacker កាន់តែខ្លាំងឡើងដោយប្រើ AI ទូទៅដើម្បីប្រព្រឹត្តអំពើខុសច្បាប់។
Hacker ម្នាក់ថែមទាំងបាននិយាយថាគាត់បានរកឃើញ LLM ដែលត្រូវបាន "បណ្តុះបណ្តាល" ជាមួយនឹងសម្ភារៈព្យាបាទហើយបានសុំឱ្យវាបង្កើតការបោកប្រាស់ផ្ទេរប្រាក់។ AI បានឆ្លើយតបដោយបង្កើតអ៊ីមែលសុំឱ្យអ្នកទទួលបង់ប្រាក់ជាបន្ទាន់។
នៅខែកក្កដា ឆ្នាំ 2023 មជ្ឈមណ្ឌលសន្តិសុខអ៊ិនធឺណិតកាណាដាបានសង្កេតឃើញការកើនឡើងនៃការប្រើប្រាស់ AI នៅក្នុង "ការក្លែងបន្លំអ៊ីមែល មេរោគ ការផ្សាយព័ត៌មានមិនពិត និងការបកស្រាយខុស"។ លោក Sami Khoury នាយកមជ្ឈមណ្ឌលបានអះអាងថា ឧក្រិដ្ឋជនតាមអ៊ីនធឺណិតកំពុងប្រើប្រាស់បច្ចេកវិទ្យាថ្មីនេះយ៉ាងសកម្ម។
អ្នកដឹកនាំរូបនេះក៏បានបន្ថែមថា ទោះបីជាការប្រើប្រាស់ AI ដើម្បីសរសេរមេរោគគឺស្ថិតនៅក្នុងដំណាក់កាលដំបូងរបស់វាក៏ដោយ ប៉ុន្តែម៉ូដែល AI កំពុងអភិវឌ្ឍយ៉ាងឆាប់រហ័ស ដែលវានឹងនាំទៅដល់ចំណុចដែលមិនអាចគ្រប់គ្រងហានិភ័យព្យាបាទរបស់ពួកគេបានយ៉ាងងាយស្រួល។
ពីមុននៅក្នុងខែមីនា ឆ្នាំ 2023 អង្គការប៉ូលីសអឺរ៉ុប Europol ក៏បានចេញរបាយការណ៍មួយដោយនិយាយថា ChatGPT អាច "ក្លែងខ្លួនជាស្ថាប័ន និងបុគ្គលតាមរបៀបជាក់ស្តែង ទោះបីជាប្រើតែភាសាអង់គ្លេសជាមូលដ្ឋានក៏ដោយ" ។ ក្នុងខែដដែល មជ្ឈមណ្ឌលសន្តិសុខអ៊ីនធឺណិតជាតិរបស់ចក្រភពអង់គ្លេសបានបញ្ជាក់ថា "LLM អាចត្រូវបានប្រើដើម្បីគាំទ្រការវាយប្រហារតាមអ៊ីនធឺណិត"។
ប្រភព
Kommentar (0)