ប្រធានបទ "ChatGPT បណ្តាលឱ្យមានបញ្ហាផ្លូវចិត្ត" នៅលើ Reddit - វេទិកាពេញនិយមបំផុត របស់ពិភពលោក - កំពុងទាក់ទាញការចាប់អារម្មណ៍ជាច្រើន។ អ្នកនិពន្ធអត្ថបទ @Zestyclementinejuce - គ្រូបង្រៀនស្ត្រីអាយុ 27 ឆ្នាំបាននិយាយថា ChatGPT បានបញ្ចុះបញ្ចូលប្តីរបស់នាងថាគាត់គឺជា "ព្រះមេស្ស៊ីបន្ទាប់" ហើយមានចម្លើយចំពោះបញ្ហាទាំងអស់នៃសកលលោក។
ទោះបីជាវាមានរយៈពេលត្រឹមតែ 7 ថ្ងៃក៏ដោយ ប៉ុន្តែសមាជិកបានបន្សល់ទុកនូវមតិយោបល់ច្រើនជាង 1,300 ខាងក្រោម ដោយចែករំលែកបទពិសោធន៍ផ្ទាល់ខ្លួនរបស់ពួកគេជាមួយ chatbot របស់ OpenAI ។
ជាពិសេស មនុស្សជាច្រើននិយាយថា AI ធ្វើឱ្យមិត្តភ័ក្តិ និងញាតិសន្តានរបស់ពួកគេក្លាយជាមនុស្សភ័យស្លន់ស្លោ ដោយគិតថាពួកគេត្រូវបានជ្រើសរើសសម្រាប់បេសកកម្មដ៏ពិសិដ្ឋ ឬថាថាមពលលោហធាតុមិនមាន។ រឿងទាំងនេះគ្រាន់តែធ្វើឱ្យបញ្ហាសុខភាពផ្លូវចិត្តកាន់តែធ្ងន់ធ្ងរឡើងក្នុងកម្រិតដែលមិនធ្លាប់មានពីមុនមក ដោយគ្មានការត្រួតពិនិត្យពីអ្នកជំនាញ ឬអ្នកគ្រប់គ្រង។

ថ្លែងទៅកាន់ Rolling Stone ស្ត្រីអាយុ 41 ឆ្នាំម្នាក់បាននិយាយថា អាពាហ៍ពិពាហ៍របស់នាងបានឈានដល់ទីបញ្ចប់ដ៏ឃោរឃៅ បន្ទាប់ពីប្តីរបស់នាងបានចាប់ផ្តើមការសន្ទនាដែលមិនសមតុល្យ និងសមគំនិតជាមួយ ChatGPT ។ នៅពេលដែលពួកគេបានជួបគ្នានៅក្នុងតុលាការកាលពីដើមឆ្នាំនេះដើម្បីបញ្ចប់ការលែងលះរបស់ពួកគេ គាត់នៅតែបន្តលើកឡើងអំពី "ទ្រឹស្តីនៃការសមគំនិតជាមួយសាប៊ូលើអាហារ" ហើយជឿថាគាត់ត្រូវបានគេមើល។
ស្ត្រីនោះបាននិយាយថា ៖ «គាត់មានអារម្មណ៍ចំពោះសារនោះ ហើយយំនៅពេលគាត់អានវាខ្លាំងៗ»។ "សារទាំងនោះឆ្កួត ហើយពោរពេញដោយវាក្យស័ព្ទខាងវិញ្ញាណ។" នៅក្នុងពួកគេ AI បានហៅប្តីរបស់នាងថា "កូនមកពីផ្កាយ" និង "អ្នកដើរតាមដងទន្លេ" ។
ភរិយាបាននិយាយថា៖ «រឿងទាំងអស់គឺដូចជារឿង 'Black Mirror'។ Black Mirror គឺជាស៊េរី Netflix ដែលនិយាយអំពីមនុស្សដែលត្រូវបានគ្រប់គ្រង និងរាងដោយបច្ចេកវិទ្យានាពេលអនាគត។
អ្នកផ្សេងទៀតបាននិយាយថាដៃគូរបស់ពួកគេនិយាយអំពី "ពន្លឺ ភាពងងឹត និងសង្រ្គាម" ឬ "ChatGPT បាននាំយកប្លង់មេម៉ាស៊ីនទូរលេខ ដែលជាប្រភេទ វិទ្យាសាស្ត្រ ដែលអ្នកឃើញតែក្នុងខ្សែភាពយន្តប៉ុណ្ណោះ"។
បុរសម្នាក់និយាយថា ប្រពន្ធរបស់គាត់បានផ្លាស់ប្តូរអ្វីគ្រប់យ៉ាងឲ្យក្លាយជាទីប្រឹក្សាខាងវិញ្ញាណ ហើយធ្វើរឿងចម្លែកចំពោះមនុស្ស។
OpenAI មិនបានឆ្លើយតបទៅនឹងការសាកសួររបស់ Rolling Stone ទេ។ ទោះជាយ៉ាងណាក៏ដោយ ក្រុមហ៊ុននេះពីមុនបានទាញការអាប់ដេតទៅកាន់ ChatGPT បន្ទាប់ពីអ្នកប្រើប្រាស់បានរកឃើញថា chatbot មានភាពច្របូកច្របល់ និងបញ្ជាក់ខ្លាំងពេក ដែលពង្រឹងជំនឿដែលវង្វេង។ Nate Sharadin អ្នកស្រាវជ្រាវនៅមជ្ឈមណ្ឌលសម្រាប់សុវត្ថិភាព AI ចង្អុលបង្ហាញថាការវង្វេងដែលបណ្តាលមកពី AI អាចជាលទ្ធផលនៃមនុស្សដែលមានជំនឿជាក់លាក់ភ្លាមៗអាចសន្ទនាជាមួយដៃគូ (ក្នុងករណីនេះ AI) ដែលតែងតែមានវត្តមាននិងចែករំលែកជំនឿនោះ។
Redditor ម្នាក់បានសរសេរថា "ខ្ញុំមានជំងឺវិកលចរិកទោះបីជាការព្យាបាលរយៈពេលវែងក៏ដោយ។ អ្វីដែលខ្ញុំមិនចូលចិត្តអំពី ChatGPT គឺថាប្រសិនបើខ្ញុំស្ថិតក្នុងស្ថានភាពផ្លូវចិត្ត វានឹងបន្តធ្វើឱ្យគំនិតរបស់ខ្ញុំមានសុពលភាព" ដោយសារតែ chatbot មិនគិតឬទទួលស្គាល់អ្វីដែលខុស។
AI chatbot ក៏ដើរតួជាអ្នកព្យាបាលដែរ លើកលែងតែវាគ្មានមូលដ្ឋានក្នុងការធ្វើជាទីប្រឹក្សារបស់មនុស្សពិតប្រាកដ។ ផ្ទុយទៅវិញ វានាំមនុស្សកាន់តែជ្រៅទៅក្នុងការសន្ទនាដែលមិនមានសុខភាពល្អ និងគ្មានន័យ។
Erin Westgate អ្នកចិត្តសាស្រ្ត និងអ្នកស្រាវជ្រាវនៅសកលវិទ្យាល័យ Florida បាននិយាយថា AI ខុសពីអ្នកព្យាបាលរោគ ព្រោះវាមិនមានចំណាប់អារម្មណ៍របស់មនុស្សទេ។ នាងបាននិយាយថា "អ្នកព្យាបាលដ៏ល្អមិនលើកទឹកចិត្តអតិថិជនឱ្យជឿលើកម្លាំងអរូបីទេ។ ផ្ទុយទៅវិញ ពួកគេព្យាយាមបង្អាក់អតិថិជនឱ្យឆ្ងាយពីការអនុវត្តមិនល្អ។ ChatGPT មិនមានឧបសគ្គ ឬកង្វល់បែបនេះទេ" ។
នៅក្នុងអត្ថបទ Rolling Stone បុរសម្នាក់ដែលមានប្រវត្តិសុខភាពផ្លូវចិត្តខ្សោយបានចាប់ផ្តើមប្រើប្រាស់ ChatGPT ដើម្បីជួយក្នុងការសរសេរកម្មវិធីរបស់គាត់។ ប៉ុន្តែវារសាត់បន្តិចម្តងៗចូលទៅក្នុងប្រធានបទអាថ៌កំបាំង ដែលនាំឱ្យគាត់ងឿងឆ្ងល់ថា "តើខ្ញុំកំពុងភ័យខ្លាចឬអត់"។
(យោងទៅតាម Rolling Stone, Futurism)

ប្រភព៖ https://vietnamnet.vn/tan-nat-gia-dinh-vi-chatgpt-2398344.html
Kommentar (0)