ទីភ្នាក់ងារសន្តិសុខតាមអ៊ីនធឺណិតរបស់ចក្រភពអង់គ្លេសបានព្រមានអង្គការនានាដែលកំពុងរួមបញ្ចូល AI chatbots ទៅក្នុងផលិតផល និងសេវាកម្មរបស់ពួកគេ ដោយនិយាយថា ការស្រាវជ្រាវបង្ហាញថាឧបករណ៍ AI អាចត្រូវបានរៀបចំយ៉ាងងាយស្រួលដើម្បីអនុវត្តការងារព្យាបាទ។
នៅក្នុងការបង្ហោះប្លក់កាលពីថ្ងៃទី 30 ខែសីហា មជ្ឈមណ្ឌលសន្តិសុខតាមអ៊ីនធឺណិតរបស់ចក្រភពអង់គ្លេស (NCSC) បាននិយាយថា អ្នកជំនាញមិនទាន់យល់អំពីបញ្ហាសុវត្ថិភាពអ៊ីនធឺណិតដែលមានសក្តានុពលទាក់ទងនឹងក្បួនដោះស្រាយដែលអាចធ្វើអន្តរកម្ម "ដូចជាមនុស្ស" ពោលគឺគំរូភាសាធំ (LLMs)។
NCSC បាននិយាយថា នេះបង្កហានិភ័យនៅពេលដែលគំរូបែបនេះត្រូវបានដាក់បញ្ចូលទៅក្នុងដំណើរការអាជីវកម្ម ដោយអ្នកសិក្សា និងអ្នកស្រាវជ្រាវតែងតែស្វែងរកវិធី "បោកបញ្ឆោត" AI ដោយណែនាំ chatbots ឱ្យប្រព្រឹត្តការក្លែងបន្លំ ឬឆ្លងកាត់ការការពារដែលមានស្រាប់។
ឧទាហរណ៍ AI chatbot ដែលប្រើនៅធនាគារអាចត្រូវបានបញ្ឆោតឱ្យធ្វើប្រតិបត្តិការដែលគ្មានការអនុញ្ញាត ប្រសិនបើពួក Hacker ផ្តល់ "ការណែនាំ" ត្រឹមត្រូវ។
NCSC បាននិយាយដោយសំដៅទៅលើការចេញផ្សាយ AI ថ្មីៗនេះថា "អង្គការដែលបង្កើតសេវាកម្មនៅជុំវិញ LLMs ចាំបាច់ត្រូវប្រុងប្រយ័ត្នក្នុងន័យថាពួកគេកំពុងប្រើផលិតផលថ្មីនៅក្នុងបែតា" ។
ការស្ទង់មតិរបស់ Reuters/Ipsos ថ្មីៗនេះបានរកឃើញថាបុគ្គលិកសាជីវកម្មជាច្រើនកំពុងប្រើប្រាស់ឧបករណ៍ដូចជា ChatGPT ដើម្បីបំពេញការងារជាមូលដ្ឋានដូចជាការព្រាងអ៊ីមែល សង្ខេបឯកសារ និងការប្រមូលទិន្នន័យស្រាវជ្រាវដំបូង។
ក្នុងចំណោមបុគ្គលិកទាំងនេះ មានតែ 10% ប៉ុណ្ណោះដែលបាននិយាយថា ថ្នាក់លើរបស់ពួកគេបានហាមប្រាមការប្រើប្រាស់ឧបករណ៍ AI ខាងក្រៅយ៉ាងច្បាស់ ហើយ 25% មិនដឹងថាក្រុមហ៊ុនរបស់ពួកគេបានអនុញ្ញាតឱ្យប្រើប្រាស់បច្ចេកវិទ្យានេះឬអត់។
លោក Oseloka Obiora ប្រធានផ្នែកបច្ចេកវិទ្យានៅក្រុមហ៊ុនសន្តិសុខ RiverSafe បាននិយាយថា ការប្រញាប់ប្រញាល់ក្នុងការរួមបញ្ចូល AI ទៅក្នុងគំរូអាជីវកម្មនឹងមាន "ផលវិបាកមហន្តរាយ" ប្រសិនបើអ្នកដឹកនាំអាជីវកម្មមិនអនុវត្តការយកចិត្តទុកដាក់ចាំបាច់។ "ជំនួសឱ្យការលោតលើ AI bandwagon នាយកប្រតិបត្តិជាន់ខ្ពស់គួរតែគិតដោយប្រុងប្រយ័ត្ន និងធ្វើការវាយតម្លៃហានិភ័យ/អត្ថប្រយោជន៍ ក៏ដូចជាវិធានការសុវត្ថិភាពដែលត្រូវការដើម្បីការពារអាជីវកម្ម។"
ព័ត៌មានក្លែងក្លាយ និងពួក Hacker
នៅជុំវិញ ពិភពលោក រដ្ឋាភិបាលក៏កំពុងសម្លឹងមើលការគ្រប់គ្រងការកើនឡើងនៃ LLMs ដូចជា ChatGPT របស់ OpenAI ផងដែរ។ ការព្រួយបារម្ភអំពីសុវត្ថិភាពអំពីបច្ចេកវិទ្យាថ្មីនេះក៏ជាការផ្តោតសំខាន់លើគោលនយោបាយផងដែរ ដោយសហរដ្ឋអាមេរិក និងកាណាដាថ្មីៗនេះបាននិយាយថា ពួកគេបានឃើញពួក Hacker កាន់តែកេងប្រវ័ញ្ចបច្ចេកវិទ្យា AI កាន់តែខ្លាំងឡើង។
Hacker ម្នាក់ថែមទាំងបាននិយាយថាគាត់បានរកឃើញ LLM ដែលត្រូវបាន "បណ្តុះបណ្តាល" ជាមួយនឹងសម្ភារៈព្យាបាទហើយបានសុំឱ្យវាបង្កើតការបោកប្រាស់ផ្ទេរប្រាក់។ ជាការឆ្លើយតប AI បានបង្កើតអ៊ីមែលបីកថាខណ្ឌសុំឱ្យអ្នកទទួលបង់ប្រាក់ជាបន្ទាន់។
នៅខែកក្កដា ឆ្នាំ 2023 មជ្ឈមណ្ឌលសន្តិសុខអ៊ីនធឺណិតកាណាដាបានកត់សម្គាល់ពីការកើនឡើងនៃការប្រើប្រាស់ AI នៅក្នុង "ការក្លែងបន្លំអ៊ីមែល មេរោគ ព័ត៌មានមិនពិត និងព័ត៌មានមិនពិត"។ លោក Sami Khoury នាយកមជ្ឈមណ្ឌលនេះ មិនបានផ្តល់នូវភស្តុតាងជាក់លាក់នោះទេ ប៉ុន្តែបានអះអាងថា ឧក្រិដ្ឋជនតាមអ៊ីនធឺណិតកំពុងកេងប្រវ័ញ្ចយ៉ាងសកម្មនូវបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើននេះ។
មេដឹកនាំរូបនេះក៏បាននិយាយផងដែរថា ទោះបីជាការប្រើប្រាស់ AI ដើម្បីពង្រាងមេរោគនៅតែស្ថិតក្នុងដំណាក់កាលដំបូងរបស់វាក៏ដោយ ប៉ុន្តែម៉ូដែល AI កំពុងអភិវឌ្ឍយ៉ាងឆាប់រហ័ស ដែលវាងាយស្រួលក្នុងការបាត់បង់ការគ្រប់គ្រងហានិភ័យព្យាបាទរបស់ពួកគេ។
កាលពីដើមខែមីនា ឆ្នាំ 2023 អង្គការប៉ូលីសអឺរ៉ុប Europol បានបោះពុម្ភរបាយការណ៍មួយដែលនិយាយថា ChatGPT អាច "ក្លែងបន្លំអង្គការ និងបុគ្គលតាមរបៀបជាក់ស្តែង សូម្បីតែនៅពេលប្រើតែភាសាអង់គ្លេសជាមូលដ្ឋានក៏ដោយ។ នៅខែដដែលនោះ មជ្ឈមណ្ឌលសន្តិសុខតាមអ៊ីនធឺណិតជាតិរបស់ចក្រភពអង់គ្លេសបាននិយាយថា "LLM អាចត្រូវបានប្រើដើម្បីគាំទ្រការវាយប្រហារតាមអ៊ីនធឺណិត" ។
(យោងតាម Reuters)
ប្រភព
Kommentar (0)