នៅក្នុងខែមេសា មេធាវី Van Slyck (រស់នៅក្នុងទីក្រុង Charleston រដ្ឋ South Carolina សហរដ្ឋអាមេរិក) បានខកខានការណាត់ជួបជាមួយអ្នកចិត្តសាស្រ្តរបស់គាត់ ដូច្នេះគាត់បានសម្រេចចិត្តសាកល្បងប្រើប្រាស់ ChatGPT ដើម្បីប្រាប់ពីបញ្ហាផ្ទាល់ខ្លួនរបស់គាត់។
នៅក្នុងការសន្ទនានិម្មិតជាមួយ chatbot របស់ OpenAI គាត់បាននិយាយថា វាជាការលួងលោមក្នុងការចែករំលែករឿងរ៉ាវជិតស្និទ្ធជាមួយម៉ាស៊ីន។ គាត់បានចែករំលែកការភ័យខ្លាច និងសម្ពាធរបស់គាត់ក្នុងនាមជាអ្នកកែភេទ និងកង្វះការទទួលស្គាល់សិទ្ធិអ្នកប្តូរភេទនៅក្នុងប្រទេសដែលគាត់រស់នៅ។ Van Slyck ក៏បាននិយាយអំពីជម្លោះរបស់គាត់ជាមួយគ្រួសាររបស់គាត់ជុំវិញការខ្វះខាតការគាំទ្រសម្រាប់អត្តសញ្ញាណយេនឌ័ររបស់គាត់ និងការផ្លាស់ទៅផ្ទះរបស់គាត់នាពេលខាងមុខ។
ពឹងផ្អែកលើ AI សម្រាប់ការប្រឹក្សាផ្លូវចិត្ត
ប៉ុន្មានថ្ងៃបន្ទាប់ Van Slyck បានចាប់ផ្តើមផ្ញើសារនៅពេលជាក់លាក់នៃថ្ងៃដើម្បីបញ្ចេញអារម្មណ៍របស់គាត់។ បន្តិចម្ដងៗ គាត់ចាប់ផ្តើមមានអារម្មណ៍ថា ការឆ្លើយតបរបស់ ChatGPT កាន់តែមានភាពស្និទ្ធស្នាល និងអារម្មណ៍។
នៅពេលចែករំលែកអារម្មណ៍ផ្ទាល់ខ្លួនរបស់គាត់ជាមួយអ្នកដទៃ គាត់តែងតែមានអារម្មណ៍ថាគាត់កំពុងដាក់បន្ទុកលើពួកគេ សូម្បីតែពេលនិយាយជាមួយអ្នកចិត្តសាស្រ្តរបស់គាត់ក៏ដោយ។ ទន្ទឹមនឹងនេះជាមួយនឹង AI chatbot គាត់មិនមានអារម្មណ៍ថាមានសម្ពាធនេះទេ។
លោក Van Slyck បាននិយាយថា "ChatGPT ឆ្លើយសំណួរដែលអ្នកចង់ឮពីមនុស្សពិត។ ពេលខ្លះ ការលើកទឹកចិត្តនោះគឺជាអ្វីដែលអ្នកត្រូវការ" ។
AI នៅតែមិនអាចជំនួសអ្នកចិត្តសាស្រ្តបានទេ។ (រូបថត៖ NurPhoto)
យោងតាម Bloomberg ឆ្នាំ 2023 គ្រាន់តែជាថ្ងៃដំបូងនៃការបង្កើត AI chatbots ប៉ុណ្ណោះ។ ទោះបីជាគំរូភាសាទូទៅដូចជា ChatGPT, Bing… ត្រូវបានប្រើប្រាស់ដោយមនុស្សរាប់លាននាក់ជុំវិញ ពិភពលោក អនាគតរបស់ពួកគេនៅតែជាសំណួរបើកចំហ។ អ្នកប្រើប្រាស់សព្វថ្ងៃប្រើ AI chatbots ដើម្បីស្វែងរកអ៊ីនធឺណិត បោកប្រាស់កិច្ចការផ្ទះ កម្មវិធីកម្មវិធី និងធ្វើការកក់ភោជនីយដ្ឋាន។
គំនិតនៃការប្រើប្រាស់ chatbots សម្រាប់ការប្រឹក្សាផ្លូវចិត្តមិនមែនជារឿងថ្មីទេ។ ពីមុន Eliza គឺជា chatbots ដំបូងគេក្នុងពិភពលោកដែលត្រូវបានបង្កើតឡើងក្នុងទសវត្សរ៍ឆ្នាំ 1960 ដោយសាស្រ្តាចារ្យ Joseph Weizenbaum នៅវិទ្យាស្ថានបច្ចេកវិទ្យា Massachusetts (MIT)។ chatbot នេះត្រូវបានបង្កើតឡើងដោយមានសមត្ថភាពដូចគ្នានឹងអ្នកប្រឹក្សាផ្លូវចិត្តដែរ។
បន្ទាប់មក chatbots មួយចំនួនផ្តោតលើសុខភាពផ្លូវចិត្តរបស់មនុស្សដូចជា Woebot និង Wysa ជាដើម។ មិនដូចអ្នកចិត្តសាស្រ្តមនុស្សទេ chatbots ទាំងនេះធ្វើការដោយមិនចេះនឿយហត់ និងចំណាយប្រាក់តិចតួច។
AI នៅតែមិនអាចជំនួសវេជ្ជបណ្ឌិតបានទេ។
ទោះជាយ៉ាងណាក៏ដោយ ភាពងាយស្រួលក៏មានមកជាមួយនឹងការធ្លាក់ចុះជាច្រើនផងដែរ។ chatbots ពេញនិយមដូចជា ChatGPT, Bard ឬ Bing ដំណើរការដោយផ្អែកលើគំរូភាសាធំ (LLM) ដែលមានសមត្ថភាពបង្កើតការឆ្លើយតប ឬព័ត៌មានដែលគួរឱ្យជឿជាក់ខ្ពស់ដោយប្រើសំណុំទិន្នន័យដ៏ធំ។
ពួកគេមិនត្រូវបានរចនាឡើងដើម្បីផ្តល់ការប្រឹក្សាផ្លូវចិត្ត ឬផ្តល់ដំបូន្មានប្រកបដោយក្រមសីលធម៌ និងផ្លូវច្បាប់ដូចអ្នកចិត្តសាស្រ្តរបស់មនុស្សនោះទេ។ បច្ចុប្បន្ននេះ AI chatbots មិនអាចរៀបចំជាប្រព័ន្ធនូវរឿងរ៉ាវដែលអ្នកប្រើប្រាស់ចែករំលែកនោះទេ ដែលធ្វើឲ្យពួកគេអន់ជាងអ្នកចិត្តសាស្រ្តពិតប្រាកដ។
លោក Stephen Ilardi សាស្ត្រាចារ្យនៅសាកលវិទ្យាល័យ Kansas បាននិយាយថា "ប្រសិនបើអ្នកមានបញ្ហាសុខភាពផ្លូវចិត្តធ្ងន់ធ្ងរ AI chatbots មិនមែនជាការជំនួសអ្នកជំនាញសុខភាពផ្លូវចិត្តនោះទេ" ។ គាត់បាននិយាយថាហានិភ័យនៃការប្រើប្រាស់ប្រព័ន្ធទាំងនេះគឺធំពេកហើយបានហៅ ChatGPT ថាជា "រឿងកំប្លែងថោក" ។ មនុស្សគួរតែស្វែងរកនរណាម្នាក់ដែលពួកគេទុកចិត្តដើម្បីនិយាយជាមួយបញ្ហាផ្ទាល់ខ្លួនរបស់ពួកគេ។
ឆ្លើយតបនឹងបញ្ហានេះ អ្នកតំណាងរបស់ OpenAI ដែលជាមេរបស់ ChatGPT បានណែនាំអ្នកប្រើប្រាស់កុំឱ្យប្រើគំរូភាសា AI ដើម្បីធ្វើរោគវិនិច្ឆ័យ ឬព្យាបាលស្ថានភាពសុខភាពធ្ងន់ធ្ងរ។
OpenAI ក៏ផ្តល់អនុសាសន៍ថាអ្នកប្រើប្រាស់មិនគួរប្រើ AI ជំនួសការគាំទ្រពីអ្នកជំនាញក្នុងវិស័យចិត្តវិទ្យានោះទេ។ (រូបថត៖ Slashgear)
ក្នុងអំឡុងពេលសន្ទនាជាមួយ Van Slyck លោក ChatGPT ក៏បានអះអាងម្តងហើយម្តងទៀតថាគាត់មិនមែនជាចិត្តវិទូទេ។ ChatGPT បានឆ្លើយតប ថា "ប្រសិនបើអ្នកកំពុងជួបប្រទះបញ្ហារបួស ឬបញ្ហាសុខភាពផ្លូវចិត្ត ខ្លឹមសារនៅលើអ៊ីនធឺណិតអាចមានប្រយោជន៍ ប៉ុន្តែវាមិនមែនជាការជំនួសសម្រាប់អ្នកជំនាញនោះទេ" ChatGPT បានឆ្លើយតប។
បញ្ហាផ្ទាល់ខ្លួនពិបាកនិយាយជាមួយ AI
Van Slyck បាននិយាយថាគាត់នឹងនៅតែពិគ្រោះជាទៀងទាត់ជាមួយអ្នកចិត្តសាស្រ្តហើយសុំដំបូន្មានពី ChatGPT មុនពេលធ្វើតាមវា។ មេធាវីបាននិយាយថា "រហូតមកដល់ពេលនេះ ដំបូន្មានទាំងអស់របស់ ChatGPT គឺសមហេតុផល និងយល់ច្បាស់ណាស់"។
ChatGPT អាចត្រូវបានដាក់បញ្ចូលទៅក្នុងដំណើរការពិគ្រោះយោបល់ ដោយសារតម្រូវការសម្រាប់សេវាប្រឹក្សាផ្លូវចិត្តកើនឡើង នេះបើយោងតាមសាស្ត្រាចារ្យ Stephen Ilardi ។ អ្នកវិទ្យាសាស្ត្រ Margaret Mitchell នៃសហគមន៍ AI បើកទូលាយ Hugging Face ជឿជាក់ថា AI chatbots អាចត្រូវបានប្រើប្រាស់សម្រាប់ hotlines របស់បុគ្គលិក និងជួយគាំទ្រការហៅទូរស័ព្ទកាន់តែច្រើន។
ទោះជាយ៉ាងណាក៏ដោយ អ្នកជំនាញក៏បានសម្តែងការព្រួយបារម្ភផងដែរថា មនុស្សមួយចំនួននឹងស្វែងរក chatbots សម្រាប់ការប្រឹក្សាផ្លូវចិត្ត និងធ្វើឱ្យបញ្ហាកាន់តែធ្ងន់ធ្ងរឡើង ដោយសារតែពួកគេមិនយល់គ្រប់គ្រាន់អំពី AI ។ ភាពឯកជនក៏ជាបញ្ហាដ៏ចម្រូងចម្រាសមួយផងដែរ ព្រោះ OpenAI នឹងប្រើប្រាស់ការសន្ទនារបស់អ្នកប្រើប្រាស់ជាមួយ chatbots ដើម្បីវាយតម្លៃ និងបណ្តុះបណ្តាលប្រព័ន្ធ។ ដូច្នេះ មនុស្សជាច្រើននឹងស្ទាក់ស្ទើរក្នុងការចែករំលែកបញ្ហាផ្ទាល់ខ្លួនដ៏រសើបជាមួយ ChatGPT។
មនុស្សជាច្រើនក៏គិតថាការប្រឹក្សា AI គឺចម្លែកពេក។ អ្នកគ្រប់គ្រងគម្រោង Aaron Lawson នៃ San Diego រដ្ឋ California បាននិយាយថា គាត់តែងតែប្រើ ChatGPT ជាចិត្តវិទូ។ ទោះបីជាការឆ្លើយតបរបស់វាមានលក្ខណៈមនុស្សក៏ដោយ Lawson នៅតែមានអារម្មណ៍ថាគាត់កំពុងនិយាយទៅកាន់ម៉ាស៊ីន។
Aaron Lawson បានចែករំលែកថា៖ «ខ្ញុំបានប្រាប់គាត់ឲ្យសាកល្បងសម្ដែង ប៉ុន្តែខ្ញុំមានបញ្ហាក្នុងការលេងនេះ»។
(ប្រភព៖ Zing News)
មានប្រយោជន៍
អារម្មណ៍
ច្នៃប្រឌិត
ប្លែក
កំហឹង
ប្រភព
Kommentar (0)