ទីភ្នាក់ងារសន្តិសុខតាមអ៊ីនធឺណិតរបស់ចក្រភពអង់គ្លេសបានព្រមានអង្គការដែលកំពុងរួមបញ្ចូលការជជែកវែកញែកសិប្បនិម្មិត (AI) ទៅក្នុងផលិតផល និងសេវាកម្មរបស់ពួកគេ ដោយនិយាយថា ការស្រាវជ្រាវបង្ហាញថាឧបករណ៍ AI អាចត្រូវបានរៀបចំយ៉ាងងាយស្រួលដើម្បីអនុវត្តការងារព្យាបាទ។
នៅក្នុងការបង្ហោះប្លក់នៅថ្ងៃទី 30 ខែសីហា មជ្ឈមណ្ឌលសន្តិសុខតាមអ៊ីនធឺណិតរបស់ចក្រភពអង់គ្លេស (NCSC) បាននិយាយថា អ្នកជំនាញមិនទាន់យល់អំពីបញ្ហាសុវត្ថិភាពអ៊ីនធឺណិតដែលមានសក្តានុពលដែលទាក់ទងនឹងក្បួនដោះស្រាយដែលអាចធ្វើអន្តរកម្ម "ដូចជាមនុស្ស" ពោលគឺគំរូភាសាធំ (LLMs)។
NCSC បាននិយាយថា នេះនាំមកនូវហានិភ័យ នៅពេលដែលគំរូបែបនេះត្រូវបានណែនាំទៅក្នុងដំណើរការអាជីវកម្មរបស់សហគ្រាស។ អ្នកប្រាជ្ញ និងអ្នកស្រាវជ្រាវថ្មីៗនេះបាននិងកំពុងស្វែងរកវិធីដើម្បី "បញ្ឆោត" AI ដោយណែនាំ chatbots ឱ្យប្រព្រឹត្តការក្លែងបន្លំ ឬទម្លុះរបាំងការពារដែលមានស្រាប់។
ឧទាហរណ៍ AI chatbot ដែលប្រើនៅធនាគារអាចត្រូវបានបញ្ឆោតឱ្យធ្វើប្រតិបត្តិការដែលគ្មានការអនុញ្ញាត ប្រសិនបើពួក Hacker ផ្តល់ "ការណែនាំ" ត្រឹមត្រូវ។
NCSC បាននិយាយដោយសំដៅទៅលើការចេញផ្សាយ AI ថ្មីៗនេះថា "អង្គការដែលបង្កើតសេវាកម្មនៅជុំវិញ LLMs ចាំបាច់ត្រូវប្រុងប្រយ័ត្នក្នុងន័យថាពួកគេកំពុងប្រើផលិតផលថ្មីនៅក្នុងបែតា" ។
ការស្ទង់មតិរបស់ Reuters/Ipsos ថ្មីៗនេះបានរកឃើញថាបុគ្គលិកសាជីវកម្មជាច្រើនកំពុងប្រើប្រាស់ឧបករណ៍ដូចជា ChatGPT ដើម្បីបំពេញការងារជាមូលដ្ឋានដូចជាការព្រាងអ៊ីមែល សង្ខេបឯកសារ និងការប្រមូលទិន្នន័យស្រាវជ្រាវដំបូង។
ក្នុងចំណោមបុគ្គលិកទាំងនេះ មានតែ 10% ប៉ុណ្ណោះដែលបាននិយាយថា ថ្នាក់លើរបស់ពួកគេបានហាមប្រាមការប្រើប្រាស់ឧបករណ៍ AI ខាងក្រៅយ៉ាងច្បាស់ ហើយ 25% មិនដឹងថាក្រុមហ៊ុនរបស់ពួកគេបានអនុញ្ញាតឱ្យប្រើប្រាស់បច្ចេកវិទ្យានេះឬអត់។
Oseloka Obiora ប្រធានផ្នែកបច្ចេកវិទ្យានៅក្រុមហ៊ុនសន្តិសុខ RiverSafe បាននិយាយថា ការប្រណាំងដើម្បីរួមបញ្ចូល AI ទៅក្នុងគំរូអាជីវកម្មនឹងមាន "ផលវិបាកមហន្តរាយ" ប្រសិនបើអ្នកដឹកនាំអាជីវកម្មបរាជ័យក្នុងការត្រួតពិនិត្យចាំបាច់។ "ជំនួសឱ្យការលោតលើ AI bandwagon នាយកប្រតិបត្តិជាន់ខ្ពស់គួរតែគិតឱ្យបានហ្មត់ចត់ និងធ្វើការវាយតម្លៃអត្ថប្រយោជន៍/ហានិភ័យ ក៏ដូចជាវិធានការសុវត្ថិភាពដែលត្រូវការដើម្បីការពារអាជីវកម្ម។"
ព័ត៌មានក្លែងក្លាយ និងពួក Hacker
ជុំវិញ ពិភពលោក រដ្ឋាភិបាលក៏កំពុងសម្លឹងមើលការគ្រប់គ្រងការកើនឡើងនៃ LLMs ដូចជា ChatGPT របស់ OpenAI ផងដែរ។ ការព្រួយបារម្ភអំពីសុវត្ថិភាពនៃបច្ចេកវិទ្យាថ្មីក៏ជាការផ្តោតសំខាន់លើគោលនយោបាយផងដែរ ដោយសហរដ្ឋអាមេរិក និងកាណាដាថ្មីៗនេះបាននិយាយថាពួកគេបានរកឃើញការរំលោភបំពានរបស់ពួក Hacker កើនឡើងនៃ AI ទូទៅ។
Hacker ម្នាក់ថែមទាំងបាននិយាយថាគាត់បានរកឃើញ LLM ដែលត្រូវបាន "បណ្តុះបណ្តាល" ជាមួយនឹងឯកសារព្យាបាទហើយព្យាយាមសួរវាឱ្យបង្កើតការបោកប្រាស់ផ្ទេរប្រាក់។ ជាការឆ្លើយតប AI បានបង្កើតអ៊ីមែលបីកថាខណ្ឌសុំឱ្យអ្នកទទួលបង់ប្រាក់ជាបន្ទាន់។
នៅខែកក្កដា ឆ្នាំ 2023 មជ្ឈមណ្ឌលសន្តិសុខអ៊ីនធឺណិតកាណាដាបានកត់សម្គាល់ពីការកើនឡើងនៃការប្រើប្រាស់ AI នៅក្នុង "ការក្លែងបន្លំអ៊ីមែល មេរោគ ព័ត៌មានមិនពិត និងព័ត៌មានមិនពិត"។ លោក Sami Khoury នាយកមជ្ឈមណ្ឌលនេះ មិនបានផ្តល់នូវភស្តុតាងលម្អិតទេ ប៉ុន្តែបានបញ្ជាក់ថា ឧក្រិដ្ឋជនតាមប្រព័ន្ធអ៊ីនធឺណេតកំពុងកេងប្រវ័ញ្ចយ៉ាងសកម្មនូវបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើននេះ។
មេដឹកនាំរូបនេះក៏បាននិយាយផងដែរថា ទោះបីជាការប្រើប្រាស់ AI ដើម្បីពង្រាងមេរោគនៅតែស្ថិតក្នុងដំណាក់កាលដំបូងរបស់វាក៏ដោយ ប៉ុន្តែម៉ូដែល AI កំពុងអភិវឌ្ឍយ៉ាងឆាប់រហ័ស ដែលវាងាយស្រួលក្នុងការបាត់បង់ការគ្រប់គ្រងហានិភ័យព្យាបាទរបស់ពួកគេ។
ពីមុនក្នុងខែមីនា ឆ្នាំ 2023 អង្គការប៉ូលីសអឺរ៉ុប Europol បានបោះពុម្ភរបាយការណ៍មួយដោយនិយាយថា ChatGPT អាច "ក្លែងខ្លួនជាអង្គការ និងបុគ្គលតាមរបៀបជាក់ស្តែង ទោះបីជាប្រើតែភាសាអង់គ្លេសជាមូលដ្ឋានក៏ដោយ" ។ នៅខែដដែលនោះ មជ្ឈមណ្ឌលសន្តិសុខតាមអ៊ីនធឺណិតជាតិរបស់ចក្រភពអង់គ្លេសបាននិយាយថា "LLM អាចត្រូវបានប្រើប្រាស់ដើម្បីគាំទ្រការវាយប្រហារតាមអ៊ីនធឺណិត"។
(យោងតាម Reuters)
ប្រភព
Kommentar (0)