ជាពិសេស Alphabet ដែលជាក្រុមហ៊ុនមេរបស់ Google បានណែនាំបុគ្គលិកកុំឱ្យបញ្ចូលឯកសារសម្ងាត់របស់ពួកគេទៅក្នុង AI chatbots ។ យោងតាមប្រភពនៅក្នុង Alphabet ខ្លួនវាផ្ទាល់ដែល Reuters ទទួលបាននោះ ក្រុមហ៊ុនក៏បានព្រមានវិស្វកររបស់ខ្លួនឱ្យជៀសវាងការប្រើប្រាស់កូដកុំព្យូទ័រដោយផ្ទាល់ដែល chatbots អាចបង្កើតបាន។
ក្រុមហ៊ុនបច្ចេកវិទ្យាយក្ស Google ក៏ព្រួយបារម្ភអំពីការលេចធ្លាយព័ត៌មានតាមរយៈ AI chatbot របស់ខ្លួន។ រូបថត៖ រ៉យទ័រ
Chatbots រួមទាំង Bard និង ChatGPT គឺជាកម្មវិធីដែលប្រើអ្វីដែលគេហៅថា បញ្ញាសិប្បនិម្មិតទូទៅ ដើម្បីធ្វើការសន្ទនាដូចមនុស្សជាមួយអ្នកប្រើប្រាស់។ ហើយអ្នកជំនាញនិយាយថា chatbots អាចចម្លងទិន្នន័យដែលពួកគេស្រូបយកនៅពេលពួកគេឆ្លើយតប ដោយបង្កើតហានិភ័យនៃការលេចធ្លាយព័ត៌មានអ្នកប្រើប្រាស់។
ក្តីបារម្ភបង្ហាញពីរបៀបដែល Google ចង់ជៀសវាងគ្រោះថ្នាក់អាជីវកម្មពីកម្មវិធីដែលខ្លួនកំពុងចាប់ផ្តើមដើម្បីប្រកួតប្រជែងជាមួយ ChatGPT ។ ការប្រុងប្រយ័ត្នរបស់ Google ក៏ឆ្លុះបញ្ចាំងពីនិន្នាការនៃការភ័យខ្លាច ជាសកល ដែលកើនឡើង រួមទាំងក្រុមហ៊ុនព្រមានប្រឆាំងនឹងការបង្ហាញព័ត៌មាននៅលើ chatbots ។
ចំនួនអាជីវកម្មដែលកំពុងកើនឡើងនៅជុំវិញពិភពលោកបានដាក់ការការពារសុវត្ថិភាពនៅលើ AI chatbots រួមទាំង Samsung, Amazon និង Deutsche Bank ។
អ្នកជំនាញផ្នែកបច្ចេកវិទ្យាប្រហែល 43% កំពុងប្រើប្រាស់ ChatGPT ឬឧបករណ៍ AI ផ្សេងទៀតគិតត្រឹមខែមករា ជារឿយៗដោយមិនបានប្រាប់ថ្នាក់លើរបស់ពួកគេ នេះបើយោងតាមការស្ទង់មតិមនុស្សជិត 12,000 នាក់ដោយគេហទំព័រ Fishbowl ដែលមានមូលដ្ឋាននៅសហរដ្ឋអាមេរិក។
គិតត្រឹមខែកុម្ភៈ Google បានប្រាប់បុគ្គលិក Bard chatbot របស់ខ្លួនកុំឱ្យចែករំលែកព័ត៌មានផ្ទៃក្នុង។ ឥឡូវនេះ Google កំពុងដាក់ឱ្យប្រើប្រាស់ Bard ទៅកាន់ជាង 180 ប្រទេស និងជា 40 ភាសា។
បច្ចេកវិទ្យា AI របស់ Google កំពុងត្រូវបានអនុវត្តចំពោះឧបករណ៍ដែលសរសេរអ៊ីមែល ឯកសារ និងសូម្បីតែបង្កើតកម្មវិធីដោយស្វ័យប្រវត្តិ។ ទោះជាយ៉ាងណាក៏ដោយ កិច្ចការទាំងនេះអាចមានព័ត៌មានមិនពិត និងបង្កហានិភ័យនៃការលេចធ្លាយព័ត៌មានផងដែរ។
Bui Huy (យោងតាម Reuters, Insider)
ប្រភព
Kommentar (0)