ការវិនិយោគដ៏ធំរបស់ Big Tech ក្នុងបញ្ញាសិប្បនិម្មិត (AI) និង chatbots បានបង្កើតការឈឺក្បាលសម្រាប់អ្នកដឹកនាំសន្តិសុខព័ត៌មានសាជីវកម្ម។ យោងតាម CNBC បានឱ្យដឹងថា AI កំពុងជ្រៀតចូលទៅក្នុងកន្លែងធ្វើការ ហើយអ្នកដឹកនាំសន្តិសុខព័ត៌មានចាំបាច់ត្រូវចូលទៅជិតបច្ចេកវិទ្យាដោយប្រុងប្រយ័ត្ន និងរៀបចំការការពារ។
បច្ចេកវិទ្យានៅពីក្រោយ GPT ត្រូវបានគេហៅថាគំរូភាសាធំ (LLM) ។ មិនមែនគ្រប់ក្រុមហ៊ុនទាំងអស់សុទ្ធតែមាន GPT ផ្ទាល់ខ្លួនទេ ដូច្នេះវាមានសារៈសំខាន់ណាស់ក្នុងការត្រួតពិនិត្យពីរបៀបដែលបុគ្គលិកប្រើប្រាស់វា។ លោក Michael Chui ដៃគូនៅវិទ្យាស្ថាន McKinsey Global Institute មានប្រសាសន៍ថា មនុស្សនឹងប្រើប្រាស់ AI ជំនាន់ថ្មី ប្រសិនបើពួកគេយល់ថាវាមានប្រយោជន៍។ គាត់ប្រៀបធៀបវាទៅនឹងការប្រើប្រាស់កុំព្យូទ័រ ឬទូរស័ព្ទនៅកន្លែងធ្វើការ។
ទោះបីជាត្រូវបានហាមឃាត់ក៏ដោយ និយោជិតនឹងនៅតែរកវិធីដើម្បីលួចចូល។ ជាប្រវត្តិសាស្ត្រ មានបច្ចេកវិទ្យាដែលទាក់ទាញខ្លាំង ដែលមនុស្សមានឆន្ទៈក្នុងការបង់ប្រាក់សម្រាប់ពួកគេ។ ជាឧទាហរណ៍ ពួកគេបានទិញទូរស័ព្ទដៃ មុនពេលក្រុមហ៊ុនរបស់ពួកគេផ្តល់ឧបករណ៍ផ្ទាល់ខ្លួនដល់ពួកគេ នេះបើយោងតាមលោក Chui ។
CISOs ដែលកំពុងប្រឈមមុខនឹងការគំរាមកំហែងនៃការវាយប្រហារតាមអ៊ីនធឺណិត ឥឡូវនេះមានការព្រួយបារម្ភមួយទៀតជាមួយ AI និង GPT ។ យោងតាមលោក Chui ក្រុមហ៊ុននានាអាចផ្តល់អាជ្ញាប័ណ្ណដល់វេទិកា AI ដើម្បីត្រួតពិនិត្យអ្វីដែលបុគ្គលិកកំពុងបង្ហាញទៅកាន់ chatbots និងធានាថាព័ត៌មានដែលពួកគេចែករំលែកត្រូវបានការពារ។
Chui និយាយថា "ក្នុងនាមជាអាជីវកម្ម អ្នកមិនចង់ឱ្យបុគ្គលិករបស់អ្នកផ្តល់ព័ត៌មានសម្ងាត់ទៅកាន់ chatbot សាធារណៈទេ" ។ ដូច្នេះ វាមានសារៈសំខាន់ណាស់ក្នុងការដាក់វិធានការបច្ចេកទេស ដូចជាកម្មវិធីផ្តល់អាជ្ញាប័ណ្ណ និងការចុះហត្ថលេខាលើកិច្ចព្រមព្រៀងផ្លូវច្បាប់អំពីកន្លែងដែលទិន្នន័យរបស់អ្នកទៅ។
លោក Sameer Penakalapati នាយកប្រតិបត្តិនៃក្រុមហ៊ុន Ceipal មានប្រសាសន៍ថា ជម្រើសដែលមានសុវត្ថិភាពគឺសម្រាប់ក្រុមហ៊ុនដើម្បីអភិវឌ្ឍ GPT របស់ខ្លួន ឬជួលអ្នកអភិវឌ្ឍន៍ GPT ដើម្បីបង្កើតកំណែផ្ទាល់ខ្លួនរបស់វា។ ប្រសិនបើអ្នកបង្កើត GPT ផ្ទាល់ខ្លួនរបស់អ្នក កម្មវិធីនឹងមានព័ត៌មានពិតប្រាកដដែលក្រុមហ៊ុនចង់ឱ្យបុគ្គលិករបស់ខ្លួនមានសិទ្ធិចូលប្រើប្រាស់។ ពួកគេក៏អាចការពារព័ត៌មានដែលបុគ្គលិកបញ្ចូលផងដែរ។ ដោយមិនគិតពីដំណោះស្រាយណាមួយដែលអ្នកជ្រើសរើស អ្នកត្រូវប្រុងប្រយ័ត្នចំពោះទិន្នន័យដែលចូលទៅក្នុង GPT។
(យោងតាម CNBC)
ប្រភព
Kommentar (0)