ប្រធានបទ "ChatGPT បណ្តាលឱ្យមានបញ្ហាផ្លូវចិត្ត" នៅលើ Reddit - វេទិកាពេញនិយមបំផុត របស់ពិភពលោក - កំពុងទាក់ទាញការចាប់អារម្មណ៍ជាច្រើន។ អ្នកនិពន្ធអត្ថបទ @Zestyclementinejuce - គ្រូបង្រៀនស្ត្រីអាយុ 27 ឆ្នាំបាននិយាយថា ChatGPT បានបញ្ចុះបញ្ចូលប្តីរបស់នាងថាគាត់គឺជា "ព្រះមេស្ស៊ីបន្ទាប់" ហើយមានចម្លើយចំពោះបញ្ហាទាំងអស់នៃសកលលោក។

ទោះបីជាវាមានរយៈពេលត្រឹមតែ 7 ថ្ងៃក៏ដោយ ប៉ុន្តែសមាជិកបានបន្សល់ទុកនូវមតិយោបល់ច្រើនជាង 1,300 ខាងក្រោម ដោយចែករំលែកបទពិសោធន៍ផ្ទាល់ខ្លួនរបស់ពួកគេជាមួយ chatbot របស់ OpenAI ។

ជាពិសេស មនុស្សជាច្រើននិយាយថា AI ធ្វើឱ្យមិត្តភ័ក្តិ និងញាតិសន្តានរបស់ពួកគេក្លាយជាមនុស្សភ័យស្លន់ស្លោ ដោយគិតថាពួកគេត្រូវបានជ្រើសរើសសម្រាប់បេសកកម្មដ៏ពិសិដ្ឋ ឬថាថាមពលលោហធាតុមិនមាន។ រឿងទាំងនេះគ្រាន់តែធ្វើឱ្យបញ្ហាសុខភាពផ្លូវចិត្តកាន់តែធ្ងន់ធ្ងរឡើងក្នុងកម្រិតដែលមិនធ្លាប់មានពីមុនមក ដោយគ្មានការត្រួតពិនិត្យពីអ្នកជំនាញ ឬអ្នកគ្រប់គ្រង។

20yms66r.png
មនុស្ស​ជា​ច្រើន​បាន​ចែក​រំលែក​ថា​មនុស្ស​ជា​ទី​ស្រឡាញ់​របស់​ពួក​គេ​ធ្លាក់​ក្នុង​ការ​យល់​ច្រឡំ​បន្ទាប់​ពី​ជជែក​ជាមួយ ChatGPT ។ រូបថត៖ Rolling Stone

ថ្លែងទៅកាន់ Rolling Stone ស្ត្រីអាយុ 41 ឆ្នាំម្នាក់បាននិយាយថា អាពាហ៍ពិពាហ៍របស់នាងបានឈានដល់ទីបញ្ចប់ដ៏ឃោរឃៅ បន្ទាប់ពីប្តីរបស់នាងបានចាប់ផ្តើមការសន្ទនាដែលមិនសមតុល្យ និងសមគំនិតជាមួយ ChatGPT ។ នៅពេលដែលពួកគេបានជួបគ្នានៅក្នុងតុលាការកាលពីដើមឆ្នាំនេះដើម្បីបញ្ចប់ការលែងលះរបស់ពួកគេ គាត់នៅតែបន្តលើកឡើងអំពី "ទ្រឹស្តីនៃការសមគំនិតជាមួយសាប៊ូលើអាហារ" ហើយជឿថាគាត់ត្រូវបានគេមើល។

ស្ត្រី​នោះ​បាន​និយាយ​ថា ​៖ «​គាត់​មាន​អារម្មណ៍​ចំពោះ​សារ​នោះ ហើយ​យំ​នៅ​ពេល​គាត់​អាន​វា​ខ្លាំងៗ​»​។ "សារទាំងនោះឆ្កួត ហើយពោរពេញដោយវាក្យស័ព្ទខាងវិញ្ញាណ។" នៅក្នុងពួកគេ AI បានហៅប្តីរបស់នាងថា "កូនមកពីផ្កាយ" និង "អ្នកដើរតាមដងទន្លេ" ។

ភរិយា​បាន​និយាយ​ថា​៖ «​រឿង​ទាំង​អស់​គឺ​ដូច​ជា​រឿង 'Black Mirror'។ Black Mirror គឺជាស៊េរី Netflix ដែលនិយាយអំពីមនុស្សដែលត្រូវបានគ្រប់គ្រង និងរាងដោយបច្ចេកវិទ្យានាពេលអនាគត។

អ្នកផ្សេងទៀតបាននិយាយថាដៃគូរបស់ពួកគេនិយាយអំពី "ពន្លឺ ភាពងងឹត និងសង្រ្គាម" ឬ "ChatGPT បាននាំយកប្លង់មេម៉ាស៊ីនទូរលេខ ដែលជាប្រភេទ វិទ្យាសាស្ត្រ ដែលអ្នកឃើញតែក្នុងខ្សែភាពយន្តប៉ុណ្ណោះ"។

បុរស​ម្នាក់​និយាយ​ថា ប្រពន្ធ​របស់​គាត់​បាន​ផ្លាស់​ប្តូរ​អ្វី​គ្រប់​យ៉ាង​ឲ្យ​ក្លាយ​ជា​ទីប្រឹក្សា​ខាង​វិញ្ញាណ ហើយ​ធ្វើ​រឿង​ចម្លែក​ចំពោះ​មនុស្ស។

OpenAI មិនបានឆ្លើយតបទៅនឹងការសាកសួររបស់ Rolling Stone ទេ។ ទោះជាយ៉ាងណាក៏ដោយ ក្រុមហ៊ុននេះពីមុនបានទាញការអាប់ដេតទៅកាន់ ChatGPT បន្ទាប់ពីអ្នកប្រើប្រាស់បានរកឃើញថា chatbot មានភាពច្របូកច្របល់ និងបញ្ជាក់ខ្លាំងពេក ដែលពង្រឹងជំនឿដែលវង្វេង។ Nate Sharadin អ្នកស្រាវជ្រាវនៅមជ្ឈមណ្ឌលសម្រាប់សុវត្ថិភាព AI ចង្អុលបង្ហាញថាការវង្វេងដែលបណ្តាលមកពី AI អាចជាលទ្ធផលនៃមនុស្សដែលមានជំនឿជាក់លាក់ភ្លាមៗអាចសន្ទនាជាមួយដៃគូ (ក្នុងករណីនេះ AI) ដែលតែងតែមានវត្តមាននិងចែករំលែកជំនឿនោះ។

Redditor ម្នាក់បានសរសេរថា "ខ្ញុំមានជំងឺវិកលចរិកទោះបីជាការព្យាបាលរយៈពេលវែងក៏ដោយ។ អ្វីដែលខ្ញុំមិនចូលចិត្តអំពី ChatGPT គឺថាប្រសិនបើខ្ញុំស្ថិតក្នុងស្ថានភាពផ្លូវចិត្ត វានឹងបន្តធ្វើឱ្យគំនិតរបស់ខ្ញុំមានសុពលភាព" ដោយសារតែ chatbot មិនគិតឬទទួលស្គាល់អ្វីដែលខុស។

AI chatbot ក៏ដើរតួជាអ្នកព្យាបាលដែរ លើកលែងតែវាគ្មានមូលដ្ឋានក្នុងការធ្វើជាទីប្រឹក្សារបស់មនុស្សពិតប្រាកដ។ ផ្ទុយ​ទៅ​វិញ វា​នាំ​មនុស្ស​កាន់​តែ​ជ្រៅ​ទៅ​ក្នុង​ការ​សន្ទនា​ដែល​មិន​មាន​សុខភាព​ល្អ និង​គ្មាន​ន័យ។

Erin Westgate អ្នកចិត្តសាស្រ្ត និងអ្នកស្រាវជ្រាវនៅសកលវិទ្យាល័យ Florida បាននិយាយថា AI ខុសពីអ្នកព្យាបាលរោគ ព្រោះវាមិនមានចំណាប់អារម្មណ៍របស់មនុស្សទេ។ នាងបាននិយាយថា "អ្នកព្យាបាលដ៏ល្អមិនលើកទឹកចិត្តអតិថិជនឱ្យជឿលើកម្លាំងអរូបីទេ។ ផ្ទុយទៅវិញ ពួកគេព្យាយាមបង្អាក់អតិថិជនឱ្យឆ្ងាយពីការអនុវត្តមិនល្អ។ ChatGPT មិនមានឧបសគ្គ ឬកង្វល់បែបនេះទេ"

នៅក្នុងអត្ថបទ Rolling Stone បុរសម្នាក់ដែលមានប្រវត្តិសុខភាពផ្លូវចិត្តខ្សោយបានចាប់ផ្តើមប្រើប្រាស់ ChatGPT ដើម្បីជួយក្នុងការសរសេរកម្មវិធីរបស់គាត់។ ប៉ុន្តែវារសាត់បន្តិចម្តងៗចូលទៅក្នុងប្រធានបទអាថ៌កំបាំង ដែលនាំឱ្យគាត់ងឿងឆ្ងល់ថា "តើខ្ញុំកំពុងភ័យខ្លាចឬអត់"។

(យោងទៅតាម Rolling Stone, Futurism)

គួរឱ្យភ្ញាក់ផ្អើល៖ ប្រទេសដំបូងគេក្នុងពិភពលោកចង់ប្រើប្រាស់ AI ដើម្បីតាក់តែងច្បាប់ បើទោះបីជាបញ្ញាសិប្បនិមិត្ត (AI) កំពុងត្រូវបានអនុវត្តយ៉ាងទូលំទូលាយនៅទូទាំងពិភពលោកក៏ដោយ ក៏គ្មានប្រទេសណាមួយប្រើប្រាស់បច្ចេកវិទ្យានេះជាផ្លូវការក្នុងការតាក់តែង ឬធ្វើវិសោធនកម្មច្បាប់នោះទេ។

ប្រភព៖ https://vietnamnet.vn/tan-nat-gia-dinh-vi-chatgpt-2398344.html