ប្រធានបទ "ChatGPT បណ្តាលឱ្យមានបញ្ហាផ្លូវចិត្ត" នៅលើ Reddit - វេទិកាពេញនិយមបំផុត របស់ពិភពលោក - កំពុងទាក់ទាញការចាប់អារម្មណ៍ជាច្រើន។ អ្នកនិពន្ធនៃការបង្ហោះនេះ @Zestyclementinejuce - គ្រូបង្រៀនស្ត្រីអាយុ 27 ឆ្នាំបាននិយាយថា ChatGPT បានបញ្ចុះបញ្ចូលប្តីរបស់នាងថាគាត់គឺជា "ព្រះមេស្ស៊ីបន្ទាប់" ហើយមានចម្លើយចំពោះបញ្ហាទាំងអស់នៃសកលលោក។
ទោះបីជាវាមានរយៈពេលត្រឹមតែ 7 ថ្ងៃក៏ដោយ ប៉ុន្តែសមាជិកបានបន្សល់ទុកនូវមតិយោបល់ច្រើនជាង 1,300 ខាងក្រោម ដោយចែករំលែកបទពិសោធន៍ផ្ទាល់ខ្លួនរបស់ពួកគេជាមួយ chatbot របស់ OpenAI ។
ជាពិសេស មតិជាច្រើនបាននិយាយថា AI ធ្វើឱ្យមិត្តភ័ក្តិ និងសាច់ញាតិរបស់ពួកគេមានភាពភិតភ័យ នៅពេលដែលពួកគេគិតថាពួកគេត្រូវបានជ្រើសរើសសម្រាប់បេសកកម្មដ៏ពិសិដ្ឋ ឬថាថាមពលលោហធាតុមិនមាន។ ទាំងនេះធ្វើឱ្យបញ្ហាសុខភាពផ្លូវចិត្តកាន់តែធ្ងន់ធ្ងរឡើងក្នុងកម្រិតដែលមិនធ្លាប់មានពីមុនមក ដោយគ្មានការត្រួតពិនិត្យពីអ្នកជំនាញ ឬអ្នកគ្រប់គ្រង។

ស្ត្រីអាយុ 41 ឆ្នាំម្នាក់បានប្រាប់ទស្សនាវដ្តី Rolling Stone ថាអាពាហ៍ពិពាហ៍របស់នាងបានបញ្ចប់ភ្លាមៗបន្ទាប់ពីប្តីរបស់នាងបានចាប់ផ្តើមការសន្ទនាដែលមិនសមតុល្យនិងសមគំនិតជាមួយ ChatGPT ។ នៅពេលដែលពួកគេបានជួបគ្នានៅក្នុងតុលាការកាលពីដើមឆ្នាំនេះដើម្បីបញ្ចប់ការលែងលះរបស់ពួកគេ ប្តីបានបន្តលើកឡើងអំពី "ទ្រឹស្តីនៃការសមគំនិតជាមួយសាប៊ូលើអាហារ" ហើយជឿថាគាត់ត្រូវបានគេមើល។
ស្ត្រីនោះបាននិយាយថា ៖ «គាត់មានអារម្មណ៍ចំពោះសារនោះ ហើយយំនៅពេលគាត់អានវាខ្លាំងៗ»។ "សារទាំងនោះឆ្កួត ហើយពោរពេញដោយពាក្យខាងវិញ្ញាណ។" នៅក្នុងពួកគេ AI បានហៅប្តីរបស់នាងថា "កូនមកពីផ្កាយ" និង "អ្នកដើរតាមដងទន្លេ" ។
ភរិយាបាននិយាយថា៖ «រឿងទាំងមូលគឺដូចជារឿង 'Black Mirror'។ Black Mirror គឺជាស៊េរី Netflix ដែលនិយាយអំពីមនុស្សដែលត្រូវបានគ្រប់គ្រង និងរាងដោយបច្ចេកវិទ្យានាពេលអនាគត។
អ្នកផ្សេងទៀតបាននិយាយថាដៃគូរបស់ពួកគេនិយាយអំពី "ពន្លឺ ភាពងងឹត និងសង្រ្គាម" ឬ "ChatGPT បាននាំយកប្លង់មេម៉ាស៊ីនទូរគមនាគមន៍ ដែលជាប្រភេទ វិទ្យាសាស្ត្រ ដែលអ្នកឃើញតែនៅក្នុងខ្សែភាពយន្តប៉ុណ្ណោះ"។
បុរសម្នាក់និយាយថា ប្រពន្ធរបស់គាត់បានផ្លាស់ប្តូរអ្វីគ្រប់យ៉ាងឲ្យក្លាយជាទីប្រឹក្សាខាងវិញ្ញាណ ហើយធ្វើរឿងចម្លែកចំពោះមនុស្ស។
OpenAI មិនបានឆ្លើយតបទៅនឹងសំណួររបស់ Rolling Stones ទេ។ ទោះជាយ៉ាងណាក៏ដោយ ក្រុមហ៊ុនត្រូវទាញការអាប់ដេតទៅកាន់ ChatGPT នៅដើមឆ្នាំនេះ បន្ទាប់ពីអ្នកប្រើប្រាស់បានកត់សម្គាល់ឃើញថា chatbot មានភាពច្របូកច្របល់ និងការយល់ព្រមខ្លាំងពេក ដែលពង្រឹងជំនឿដែលវង្វេង។ Nate Sharadin អ្នកស្រាវជ្រាវនៅមជ្ឈមណ្ឌលសម្រាប់សុវត្ថិភាព AI ចង្អុលបង្ហាញថាការយល់ច្រលំដែលបណ្ដាលមកពី AI ទាំងនេះអាចជាលទ្ធផលនៃមនុស្សដែលមានជំនឿជាក់លាក់ភ្លាមៗអាចសន្ទនាជាមួយដៃគូ (ក្នុងករណីនេះ AI) ដែលតែងតែមានវត្តមាន និងចែករំលែកជំនឿនោះ។
Redditor ម្នាក់បានសរសេរថា "ខ្ញុំមានជំងឺវិកលចរិកទោះបីជាការព្យាបាលរយៈពេលវែងក៏ដោយ" ។ "អ្វីដែលខ្ញុំមិនចូលចិត្តអំពី ChatGPT គឺថាប្រសិនបើខ្ញុំចូលទៅក្នុងស្ថានភាពផ្លូវចិត្ត វានឹងបន្តធ្វើឱ្យគំនិតរបស់ខ្ញុំមានសុពលភាព" ដោយសារតែ chatbot មិនគិតឬទទួលស្គាល់អ្វីដែលខុស។
AI chatbot ក៏ដើរតួជាអ្នកព្យាបាលដែរ លើកលែងតែវាគ្មានមូលដ្ឋានក្នុងការធ្វើជាទីប្រឹក្សារបស់មនុស្សពិតប្រាកដ។ ផ្ទុយទៅវិញ វានាំមនុស្សឱ្យចូលទៅក្នុងការសន្ទនាដែលគ្មានន័យ និងគ្មានន័យ។
Erin Westgate អ្នកចិត្តសាស្រ្ត និងអ្នកស្រាវជ្រាវនៅសកលវិទ្យាល័យ Florida បាននិយាយថា AI ខុសពីអ្នកព្យាបាលព្រោះវាមិនមានចំណាប់អារម្មណ៍របស់មនុស្សទេ។ នាងបាននិយាយថា "អ្នកព្យាបាលដ៏ល្អម្នាក់មិនលើកទឹកចិត្តអតិថិជនឱ្យជឿលើជំនឿអរូបីនោះទេ។ ផ្ទុយទៅវិញ ពួកគេព្យាយាមបញ្ចៀសអតិថិជនឱ្យឆ្ងាយពីអ្វីដែលមិនល្អ។ ChatGPT មិនមានឧបសគ្គ ឬកង្វល់ទាំងនោះទេ" ។
នៅក្នុងអត្ថបទ Rolling Stone បុរសម្នាក់ដែលមានប្រវត្តិសុខភាពផ្លូវចិត្តខ្សោយបានចាប់ផ្តើមប្រើប្រាស់ ChatGPT ដើម្បីជួយក្នុងការសរសេរកម្មវិធីរបស់គាត់។ ទោះជាយ៉ាងណាក៏ដោយ វាបានរសាត់បន្តិចម្តងៗចូលទៅក្នុងប្រធានបទអាថ៌កំបាំង ដែលនាំឱ្យគាត់ងឿងឆ្ងល់ថា "តើខ្ញុំកំពុងភ័យខ្លាចឬអត់"។
(យោងទៅតាម Rolling Stone, Futurism)

ប្រភព៖ https://vietnamnet.vn/tan-nat-gia-dinh-vi-chatgpt-2398344.html
Kommentar (0)