ជាពិសេស Alphabet ដែលជាក្រុមហ៊ុនមេរបស់ Google បានណែនាំបុគ្គលិកមិនឱ្យបញ្ចូលឯកសារសម្ងាត់របស់ពួកគេទៅក្នុង AI chatbots ។ យោងតាមប្រភពនៅក្នុង Alphabet ខ្លួនវាផ្ទាល់ដែល Reuters ទទួលបាននោះ ក្រុមហ៊ុនក៏បានព្រមានវិស្វកររបស់ខ្លួនឱ្យជៀសវាងការប្រើប្រាស់កូដកុំព្យូទ័រដោយផ្ទាល់ដែល chatbots អាចបង្កើតបាន។
ក្រុមហ៊ុនបច្ចេកវិទ្យាយក្ស Google ក៏ព្រួយបារម្ភអំពីការលេចធ្លាយព័ត៌មានតាមរយៈ AI chatbot របស់ខ្លួន។ រូបថត៖ រ៉យទ័រ
chatbots ដែលរួមមាន Bard និង ChatGPT គឺជាកម្មវិធីដែលប្រើអ្វីដែលគេហៅថា បញ្ញាសិប្បនិម្មិតទូទៅ ដើម្បីធ្វើការសន្ទនាដូចមនុស្សជាមួយអ្នកប្រើប្រាស់។ ហើយបើយោងតាមអ្នកជំនាញ chatbots អាចផលិតឡើងវិញនូវទិន្នន័យដែលពួកគេស្រូបយកក្នុងអំឡុងពេលដំណើរការឆ្លើយតប ដោយបង្កើតហានិភ័យនៃការលេចធ្លាយព័ត៌មានអ្នកប្រើប្រាស់។
ក្តីបារម្ភបង្ហាញពីរបៀបដែល Google ចង់ជៀសវាងការប៉ះពាល់ដល់អាជីវកម្មពីកម្មវិធីដែលខ្លួនបានបើកដំណើរការដើម្បីប្រកួតប្រជែងជាមួយ ChatGPT ។ ការប្រុងប្រយ័ត្នរបស់ Google ក៏ឆ្លុះបញ្ចាំងពីនិន្នាការកើនឡើងនៃការភ័យខ្លាចនៅជុំវិញពិភពលោក រួមទាំងក្រុមហ៊ុនព្រមានប្រឆាំងនឹងការបង្ហាញព័ត៌មាននៅលើ chatbots ។
ចំនួនអាជីវកម្មដែលកំពុងកើនឡើងនៅជុំវិញពិភពលោកបានដាក់ការការពារសុវត្ថិភាពនៅលើ AI chatbots រួមទាំង Samsung, Amazon និង Deutsche Bank ។
អ្នកជំនាញផ្នែកបច្ចេកវិទ្យាប្រហែល 43% កំពុងប្រើប្រាស់ ChatGPT ឬឧបករណ៍ AI ផ្សេងទៀតគិតត្រឹមខែមករា ជារឿយៗដោយមិនបានប្រាប់ថ្នាក់លើរបស់ពួកគេ នេះបើយោងតាមការស្ទង់មតិមនុស្សជិត 12,000 នាក់ដោយគេហទំព័រ Fishbowl ដែលមានមូលដ្ឋាននៅសហរដ្ឋអាមេរិក។
Insider បានរាយការណ៍ថាត្រឹមខែកុម្ភៈ Google បានស្នើឱ្យបុគ្គលិកនៃ Bard chatbot មិនផ្តល់ព័ត៌មានផ្ទៃក្នុង។ បច្ចុប្បន្ន Google កំពុងដាក់ឱ្យប្រើប្រាស់ Bard ទៅកាន់ជាង 180 ប្រទេស និងជា 40 ភាសា។
បច្ចេកវិទ្យា AI របស់ Google កំពុងត្រូវបានអនុវត្តចំពោះឧបករណ៍ដែលសរសេរអ៊ីមែល ឯកសារ និងសូម្បីតែបង្កើតកម្មវិធីដោយស្វ័យប្រវត្តិ។ ទោះជាយ៉ាងណាក៏ដោយ ការងារទាំងនេះអាចមានព័ត៌មានមិនពិត ដែលនាំឱ្យហានិភ័យនៃការលេចធ្លាយព័ត៌មានផងដែរ។
Bui Huy (យោងតាម Reuters, Insider)
ប្រភព
Kommentar (0)