ក្រុមអ្នកស្រាវជ្រាវនៅប្រទេសអាឡឺម៉ង់ថ្មីៗនេះបានព្រមានអំពីហានិភ័យនៃភាពលំអៀងនៅពេលប្រើ AI chatbots ដើម្បីកាត់បន្ថយខ្លឹមសារស្រាវជ្រាវ។ បន្ទាប់ពីការវិភាគអរូបី វិទ្យាសាស្ត្រ ចំនួន 4,900 ដែលសរសេរដោយមនុស្ស ក្រុមការងារបានប្រើគំរូ AI ជាច្រើនដើម្បីប្រៀបធៀបពីរបៀបដែលប្រព័ន្ធទាំងនេះដំណើរការព័ត៌មាន។ លទ្ធផលបានបង្ហាញថា chatbots ភាគច្រើនមានកំហុសក្នុងការប្រើលើសចំណុះ សូម្បីតែនៅពេលត្រូវបានជម្រុញឱ្យសង្ខេបយ៉ាងត្រឹមត្រូវក៏ដោយ។
AI ងាយនឹងលំអៀងនៅពេលសង្ខេបការស្រាវជ្រាវវិទ្យាសាស្ត្រ។
នៅក្នុងការធ្វើតេស្ត ម៉ូដែល AI បានធ្វើកំហុសច្រើនជាងអ្នកជំនាញមនុស្ស 5 ដង នៅពេលដែលមិនមានការណែនាំ។ សូម្បីតែនៅពេលដែលមានតម្រូវការច្បាស់លាស់សម្រាប់ភាពត្រឹមត្រូវក៏ដោយ អត្រាកំហុសគឺខ្ពស់ជាងការសង្ខេបស្តង់ដារពីរដង។ សមាជិកម្នាក់ក្នុងក្រុមបាននិយាយថា "ការធ្វើទូទៅ ពេលខ្លះហាក់ដូចជាគ្មានគ្រោះថ្នាក់ ប៉ុន្តែពួកគេពិតជាផ្លាស់ប្តូរធម្មជាតិនៃការស្រាវជ្រាវដើម"។ "នោះជាការលំអៀងជាប្រព័ន្ធ។"
គួរកត់សម្គាល់ថាកំណែថ្មីនៃ chatbot មិនបានដោះស្រាយបញ្ហានោះទេ ប៉ុន្តែពិតជាធ្វើឱ្យវាកាន់តែធ្ងន់ធ្ងរ។ ជាមួយនឹងភាសាដ៏រលូន និងទាក់ទាញរបស់ពួកគេ ការសង្ខេបដែលបង្កើតដោយ AI អាចមើលទៅគួរឱ្យជឿជាក់បានយ៉ាងងាយស្រួល ខណៈពេលដែលខ្លឹមសារពិតប្រាកដត្រូវបានបង្ខូចទ្រង់ទ្រាយ។ នៅក្នុងឧទាហរណ៍មួយ DeepSeek បានផ្លាស់ប្តូរឃ្លា "មានសុវត្ថិភាព និងអាចត្រូវបានអនុវត្តដោយជោគជ័យ" ទៅ "ការព្យាបាលប្រកបដោយសុវត្ថិភាព និងមានប្រសិទ្ធភាព" ដែលជាការបកស្រាយឡើងវិញនៃការសន្និដ្ឋាននៃការសិក្សាដើម។
ក្នុងឧទាហរណ៍មួយផ្សេងទៀត គំរូ Llama បានណែនាំថ្នាំជំងឺទឹកនោមផ្អែមសម្រាប់មនុស្សវ័យក្មេងដោយមិនបានបញ្ជាក់កម្រិតថ្នាំ ភាពញឹកញាប់ ឬផលប៉ះពាល់។ ប្រសិនបើអ្នកអានជាគ្រូពេទ្យ ឬអ្នកជំនាញ ថែទាំសុខភាព ដែលមិនផ្ទៀងផ្ទាត់ព័ត៌មានជាមួយនឹងការស្រាវជ្រាវដើម ការសង្ខេបដូចនេះអាចបង្កហានិភ័យផ្ទាល់ដល់អ្នកជំងឺ។
អ្នកជំនាញនិយាយថា បាតុភូតនេះត្រូវបានចាក់ឫសតាមវិធីដែលគំរូ AI ត្រូវបានបណ្តុះបណ្តាល។ chatbots ជាច្រើនសព្វថ្ងៃនេះត្រូវបានបណ្តុះបណ្តាលលើទិន្នន័យបន្ទាប់បន្សំ ដូចជាព័ត៌មានវិទ្យាសាស្រ្តដ៏ពេញនិយម ដែលត្រូវបាន condensed រួចហើយ។ នៅពេលដែល AI បន្តសង្ខេបមាតិកាខាប់ ហានិភ័យនៃការបង្ខូចទ្រង់ទ្រាយកើនឡើង។
អ្នកជំនាញផ្នែក AI ក្នុងវិស័យសុខភាពផ្លូវចិត្ត បាននិយាយថា ឧបសគ្គបច្ចេកទេសចាំបាច់ត្រូវតែត្រូវបានបង្កើតឡើងនៅដំណាក់កាលដំបូងក្នុងការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ AI ។
អ្នកប្រើប្រាស់ត្រូវមានការប្រុងប្រយ័ត្ន ព្រោះថា chatbots អាចបង្ខូចទ្រង់ទ្រាយមាតិកាបានយ៉ាងងាយស្រួល។
ដោយសារអ្នកប្រើប្រាស់កាន់តែពឹងផ្អែកលើ AI chatbots ដើម្បីស្វែងយល់អំពីវិទ្យាសាស្ត្រ កំហុសតូចៗក្នុងការបកស្រាយអាចប្រមូលផ្តុំ និងរីករាលដាលយ៉ាងឆាប់រហ័ស ដែលនាំឱ្យមានការយល់ខុសរីករាលដាល។ នៅពេលដែលការជឿទុកចិត្តលើវិទ្យាសាស្ត្រកំពុងធ្លាក់ចុះ ហានិភ័យនេះកាន់តែគួរឱ្យព្រួយបារម្ភ និងសមនឹងទទួលបានការយកចិត្តទុកដាក់យ៉ាងធ្ងន់ធ្ងរ។
ការដាក់បញ្ចូល AI ទៅក្នុងការស្រាវជ្រាវ និងការផ្សព្វផ្សាយចំណេះដឹង គឺជានិន្នាការដែលមិនអាចត្រឡប់វិញបាន។ ទោះជាយ៉ាងណាក៏ដោយ អ្នកជំនាញបញ្ជាក់ថា បច្ចេកវិទ្យាមិនអាចជំនួសតួនាទីរបស់មនុស្សក្នុងការយល់ដឹង និងផ្ទៀងផ្ទាត់ខ្លឹមសារវិទ្យាសាស្ត្របានទេ។ នៅពេលប្រើ chatbots នៅក្នុងតំបន់ដែលមានហានិភ័យខ្ពស់ដូចជាថ្នាំ ភាពត្រឹមត្រូវគួរតែជាអាទិភាពកំពូល ជាជាងផ្តោតលើតែបទពិសោធន៍ភាសារលូន ឬល្បឿនឆ្លើយតប។
ប្រភព៖ https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html
Kommentar (0)