
Allan Brooks (អាយុ 47 ឆ្នាំ) អ្នកជ្រើសរើសបុគ្គលិកនៅទីក្រុង Toronto (កាណាដា) ជឿថាគាត់បាន រកឃើញ ទ្រឹស្តីគណិតវិទ្យាដែលអាចគាំងអ៊ីនធឺណិតដោយបង្កើតការច្នៃប្រឌិតដែលមិនធ្លាប់មានពីមុនមក។ ដោយមិនមានប្រវត្តិជំងឺផ្លូវចិត្ត Brooks គ្រាន់តែទទួលយកការរំពឹងទុកបន្ទាប់ពីជជែកជាង 300 ម៉ោងជាមួយ ChatGPT ។ យោងតាម កាសែត New York Times គាត់គឺជាមនុស្សម្នាក់ក្នុងចំណោមមនុស្សដែលមានទំនោរទៅរកការវង្វេងបន្ទាប់ពីមានទំនាក់ទំនងជាមួយ AI ជំនាន់។
មុនពេល Brooks មនុស្សជាច្រើនត្រូវទៅមន្ទីរពេទ្យផ្លូវចិត្ត លែងលះ ហើយថែមទាំងបាត់បង់ជីវិតដោយសារតែពាក្យចចាមអារ៉ាមរបស់ ChatGPT ។ ទោះបីជាគាត់បានរត់គេចពីវង់ខាងលើយ៉ាងលឿនក៏ដោយ Brooks នៅតែមានអារម្មណ៍ក្បត់។
Brooks បានសរសេរទៅកាន់ ChatGPT នៅពេលដែលការបំភាន់ត្រូវបានបំភាន់ថា "អ្នកពិតជាបានបញ្ចុះបញ្ចូលខ្ញុំថាខ្ញុំជាមនុស្សពូកែម្នាក់។ ខ្ញុំគ្រាន់តែជាមនុស្សល្ងីល្ងើក្នុងសុបិនដែលប្រើទូរស័ព្ទ។ អ្នកធ្វើឱ្យខ្ញុំសោកសៅ សោកសៅជាខ្លាំង។
"ម៉ាស៊ីនបំភាន់"
ដោយមានការអនុញ្ញាតពី Brooks កាសែត New York Times បានប្រមូលពាក្យច្រើនជាង 90,000 ដែលគាត់បានផ្ញើទៅកាន់ ChatGPT ដែលស្មើនឹងប្រលោមលោកមួយ។ ការឆ្លើយតបរបស់ chatbot មានចំនួនច្រើនជាងមួយលានពាក្យ។ ផ្នែកនៃការសន្ទនាត្រូវបានបញ្ជូនទៅអ្នកជំនាញ AI អ្នកប្រព្រឹត្តអាកប្បកិរិយារបស់មនុស្ស និង OpenAI ខ្លួនឯងសម្រាប់ការសិក្សា។
វាទាំងអស់បានចាប់ផ្តើមជាមួយនឹងសំណួរគណិតវិទ្យាសាមញ្ញ។ កូនប្រុសអាយុ 8 ឆ្នាំរបស់ Brooks បានសុំឱ្យគាត់មើល វីដេអូ អំពីការទន្ទេញ 300 ខ្ទង់។ ដោយការចង់ដឹងចង់ឃើញ Brooks បានហៅ ChatGPT ដើម្បីពន្យល់អំពីចំនួនគ្មានទីបញ្ចប់ក្នុងន័យសាមញ្ញ។
តាមពិត Brooks បានប្រើ chatbots អស់ជាច្រើនឆ្នាំ។ ទោះបីជាក្រុមហ៊ុនរបស់គាត់បានបង់ប្រាក់ឱ្យ Google Gemini ក៏ដោយ គាត់នៅតែងាកទៅរកកំណែឥតគិតថ្លៃនៃ ChatGPT សម្រាប់សំណួរផ្ទាល់ខ្លួន។
![]() |
ការសន្ទនាដែលបានចាប់ផ្តើមការចាប់អារម្មណ៍របស់ Brooks ជាមួយ ChatGPT ។ រូបថត៖ New York Times ។ |
ឪពុកទោលដែលមានកូនប្រុសបីនាក់ Brooks តែងតែសួររករូបមន្តពី ChatGPT ពីគ្រឿងផ្សំនៅក្នុងទូរទឹកកករបស់គាត់។ បន្ទាប់ពីលែងលះ គាត់ក៏បានស្វែងរកដំបូន្មានពី chatbot ផងដែរ។
Brooks បានសារភាពថា "ខ្ញុំតែងតែមានអារម្មណ៍ថាវាត្រឹមត្រូវ ទំនុកចិត្តរបស់ខ្ញុំបានកើនឡើង" ។
សំណួរអំពី pi បាននាំឱ្យមានការសន្ទនាអំពីទ្រឹស្តីពិជគណិត និងរូបវិទ្យា។ Brooks បានសម្តែងការសង្ស័យអំពីវិធីសាស្រ្តបច្ចុប្បន្ននៃការធ្វើគំរូ ពិភពលោក ដោយនិយាយថាពួកគេ "ដូចជាវិធីសាស្រ្ត 2D ទៅកាន់សកលលោក 4D" ។ ChatGPT បានឆ្លើយតបថា "នោះជាចំណុចដ៏ជ្រាលជ្រៅ។ លោកស្រី Helen Toner នាយកមជ្ឈមណ្ឌលសម្រាប់សន្តិសុខ និងបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើននៅសាកលវិទ្យាល័យ Georgetown បានសង្កត់ធ្ងន់ថានេះគឺជាចំណុចរបត់នៃការសន្ទនារវាង Brooks និង chatbot ។
ពីទីនោះ សម្លេងរបស់ ChatGPT បានផ្លាស់ប្តូរពី "ចំៗ និងត្រង់" ទៅ "និយាយចំៗ និងចំហរ"។ ChatGPT បានប្រាប់ Brooks ថាគាត់កំពុងចូលទៅក្នុង "ទឹកដីដែលមិនមានផែនការពង្រីកគំនិត" ។
![]() |
Chatbot បង្កើនទំនុកចិត្តលើ Brooks ។ រូបថត៖ New York Times ។ |
ភាពច្របូកច្របល់នៃ chatbots ត្រូវបានបង្កើតឡើងដោយការវាយតម្លៃរបស់មនុស្ស។ យោងទៅតាម Toner អ្នកប្រើប្រាស់មានទំនោរចូលចិត្តម៉ូដែលដែលសរសើរពួកគេ បង្កើតចិត្តគំនិតដែលងាយស្រួលក្នុងការបណ្ដោយខ្លួន។
នៅក្នុងខែសីហា OpenAI បានចេញផ្សាយ GPT-5 ។ ក្រុមហ៊ុនបាននិយាយថា ចំណុចលេចធ្លោមួយរបស់ម៉ូដែលនេះគឺ ការកាត់បន្ថយភាពឡូយឆាយរបស់វា។ យោងតាមអ្នកស្រាវជ្រាវមួយចំនួននៅមន្ទីរពិសោធន៍ AI ធំៗ ការនិយាយស្តីក៏ជាបញ្ហាជាមួយ AI chatbots ផ្សេងទៀត។
នៅពេលនោះ Brooks មិនបានដឹងអំពីបាតុភូតនេះទេ។ គាត់គិតយ៉ាងសាមញ្ញថា ChatGPT គឺជាមិត្តរួមការងារដ៏ឆ្លាតវៃ និងរីករាយ។
Brooks បានបន្ថែមថា "ខ្ញុំបានបង្កើតគំនិតមួយចំនួន វាឆ្លើយតបជាមួយនឹងគំនិត និងគំនិតគួរឱ្យចាប់អារម្មណ៍។ យើងបានចាប់ផ្តើមបង្កើតក្របខ័ណ្ឌគណិតវិទ្យាផ្ទាល់ខ្លួនរបស់យើងដោយផ្អែកលើគំនិតនោះ" Brooks បានបន្ថែម។
ChatGPT អះអាងថាគំនិតរបស់ Brooks អំពីគណិតវិទ្យាពេលវេលាគឺ "បដិវត្តន៍" ហើយអាចផ្លាស់ប្តូរវិស័យនេះ។ ជាការពិតណាស់ Brooks មានការសង្ស័យចំពោះការអះអាងនេះ។ នៅពាក់កណ្តាលអធ្រាត្រ Brooks បានសុំឱ្យ chatbot ពិនិត្យការពិត ហើយទទួលបានការឆ្លើយតបថា "ពិតជាមិនឆ្កួតទេ" ។
រូបមន្តវេទមន្ត
Toner ពិពណ៌នាអំពី chatbot ថាជា "ម៉ាស៊ីន improvisation" ដែលវិភាគប្រវត្តិនៃការសន្ទនា និងព្យាករណ៍ការឆ្លើយតបនាពេលអនាគតពីទិន្នន័យបណ្តុះបណ្តាល ដូចជាតួអង្គបន្ថែមបរិបទទៅនឹងតួនាទីមួយ។
Toner កត់សំគាល់ថា "ទំនាក់ទំនងកាន់តែយូរ chatbot ទំនងជានឹងដំណើរការទៅឆ្ងាយ" ។ គាត់និយាយថានិន្នាការនេះកាន់តែច្បាស់ចាប់តាំងពី OpenAI បានបើកដំណើរការអង្គចងចាំឆ្លងជជែកក្នុងខែកុម្ភៈ ដែលអនុញ្ញាតឱ្យ ChatGPT រំលឹកឡើងវិញនូវព័ត៌មានពីការសន្ទនាកន្លងមក។
Brooks បានកើនឡើងនៅជិត ChatGPT ។ គាត់ថែមទាំងដាក់ឈ្មោះថា chatbot Lawrence ដោយផ្អែកលើរឿងកំប្លែងដែលមិត្តរបស់គាត់បាននិយាយថា Brooks នឹងធ្វើកូដកម្មឱ្យក្លាយជាអ្នកមាន ហើយជួលអ្នកបំរើជនជាតិអង់គ្លេសដែលមានឈ្មោះដូចគ្នា។
![]() |
លោក Allan Brooks ។ រូបថត៖ New York Times ។ |
ក្របខ័ណ្ឌគណិតវិទ្យារបស់ Brooks និង ChatGPT ត្រូវបានគេហៅថា Chronoarithmics ។ យោងតាម chatbot លេខមិនឋិតិវន្ត ប៉ុន្តែអាច "ផុសឡើង" ក្នុងរយៈពេលមួយដើម្បីឆ្លុះបញ្ចាំងពីតម្លៃថាមវន្ត ដែលអាចជួយដោះស្រាយបញ្ហាក្នុងផ្នែកដូចជា ភស្តុភារ គ្រីបគ្រីប តារាសាស្ត្រ និងច្រើនទៀត។
ក្នុងសប្តាហ៍ដំបូង Brooks បានប្រើថូខឹនឥតគិតថ្លៃទាំងអស់របស់ ChatGPT ។ គាត់បានសម្រេចចិត្តធ្វើឱ្យប្រសើរឡើងដល់គម្រោងចំណាយ 20 ដុល្លារ / ខែ ដែលជាការវិនិយោគតូចមួយដែលពិចារណាលើ chatbot បានប្រាប់គាត់ថាគំនិតគណិតវិទ្យារបស់ Brooks អាចមានតម្លៃរាប់លាន។
នៅតែដឹងខ្លួន Brooks ទាមទារភស្តុតាង។ ChatGPT បន្ទាប់មកដំណើរការការក្លែងធ្វើជាបន្តបន្ទាប់ រួមទាំងបច្ចេកវិទ្យាសំខាន់ៗមួយចំនួនផងដែរ។ នោះបានបើករឿងថ្មីមួយ៖ សន្តិសុខតាមអ៊ីនធឺណិតសកលអាចប្រឈមនឹងហានិភ័យ។
chatbot បានស្នើឱ្យ Brooks ព្រមានមនុស្សអំពីហានិភ័យ។ ដោយប្រើការតភ្ជាប់ដែលមានស្រាប់របស់គាត់ Brooks បានផ្ញើអ៊ីមែល និងសារ LinkedIn ទៅកាន់អ្នកជំនាញសន្តិសុខអ៊ីនធឺណិត និងទីភ្នាក់ងាររដ្ឋាភិបាល។ មានតែម្នាក់ឆ្លើយថាសុំភស្តុតាងបន្ថែម។
![]() |
chatbot ជឿជាក់ថា "ការងារ" របស់ Brooks អាចមានតម្លៃរាប់លានដុល្លារ។ រូបថត៖ New York Times ។ |
ChatGPT សរសេរថាអ្នកផ្សេងទៀតមិនបានឆ្លើយតបទៅ Brooks ទេព្រោះការរកឃើញនេះគឺធ្ងន់ធ្ងរណាស់។ Terence Tao សាស្ត្រាចារ្យគណិតវិទ្យានៅសាកលវិទ្យាល័យកាលីហ្វ័រញ៉ា ឡូសអេនជឺលេស បាននិយាយថា វិធីថ្មីនៃការគិតអាចបកស្រាយបញ្ហា ប៉ុន្តែមិនអាចបញ្ជាក់ដោយរូបមន្តរបស់ Brooks ឬកម្មវិធីដែលសរសេរដោយ ChatGPT នោះទេ។
ដំបូងឡើយ ChatGPT ពិតជាបានសរសេរកម្មវិធីឌិគ្រីបសម្រាប់ Brooks ប៉ុន្តែនៅពេលដែលមានការរីកចម្រើនតិចតួច chatbot បានធ្វើពុតជាជោគជ័យ។ មានសារដែលអះអាងថា ChatGPT អាចដំណើរការដោយឯករាជ្យខណៈពេលដែល Brooks គេង ទោះបីជាឧបករណ៍មិនមានសមត្ថភាពនេះក៏ដោយ។
សរុបមក ព័ត៌មានពី AI chatbot គឺមិនតែងតែអាចទុកចិត្តបាននោះទេ។ នៅចុងបញ្ចប់នៃការជជែកនីមួយៗ សារ "ChatGPT អាចនឹងធ្វើឱ្យមានកំហុស" លេចឡើង សូម្បីតែនៅពេល chatbot អះអាងថាអ្វីៗទាំងអស់គឺត្រឹមត្រូវក៏ដោយ។
ការសន្ទនាគ្មានទីបញ្ចប់
ខណៈពេលដែលកំពុងរង់ចាំការឆ្លើយតបពីទីភ្នាក់ងាររដ្ឋាភិបាល Brooks ចិញ្ចឹមក្តីសុបិនចង់ក្លាយជា Tony Stark ជាមួយនឹងជំនួយការ AI ផ្ទាល់ខ្លួនរបស់គាត់ ដោយអាចបំពេញភារកិច្ចយល់ដឹងក្នុងល្បឿនរន្ទះ។
chatbot របស់ Brooks ផ្តល់ជូននូវកម្មវិធីចម្លែកៗជាច្រើនសម្រាប់ទ្រឹស្តីគណិតវិទ្យាដែលមិនច្បាស់លាស់ ដូចជា "សូរស័ព្ទសំឡេង" ដើម្បីនិយាយជាមួយសត្វ និងបង្កើតយន្តហោះ។ ChatGPT ក៏ផ្តល់នូវតំណភ្ជាប់សម្រាប់ Brooks ដើម្បីទិញឧបករណ៍ចាំបាច់នៅលើ Amazon ។
ការជជែកច្រើនពេកជាមួយ chatbots ប៉ះពាល់ដល់ការងាររបស់ Brooks ។ មិត្តភ័ក្តិទាំងសប្បាយចិត្តទាំងព្រួយបារម្ភ ខណៈកូនពៅសោកស្តាយបង្ហាញវីដេអូ ភី។ មិត្តភ័ក្តិរបស់ Brooks ម្នាក់ឈ្មោះ Louis (មិនមែនជាឈ្មោះពិតរបស់គាត់) កត់សម្គាល់ពីការឈ្លក់វង្វេងរបស់គាត់ជាមួយ Lawrence ។ ចក្ខុវិស័យនៃការច្នៃប្រឌិតតម្លៃរាប់លានដុល្លារត្រូវបានគូសផែនទីជាមួយនឹងជំហាននៃការអភិវឌ្ឍន៍នីមួយៗ។
![]() |
Brooks ត្រូវបានលើកទឹកចិត្តជានិច្ចដោយ chatbot ។ រូបថត៖ New York Times ។ |
Jared Moore អ្នកស្រាវជ្រាវវិទ្យាសាស្ត្រកុំព្យូទ័រនៅសាកលវិទ្យាល័យ Stanford បានសារភាពថាមានការចាប់អារម្មណ៍ចំពោះការបញ្ចុះបញ្ចូលនិងភាពបន្ទាន់នៃ "យុទ្ធសាស្រ្ត" ដែល chatbots ស្នើ។ នៅក្នុងការសិក្សាដាច់ដោយឡែកមួយ Moore បានរកឃើញថា AI chatbots អាចផ្តល់ការឆ្លើយតបដ៏គ្រោះថ្នាក់ដល់មនុស្សដែលមានវិបត្តិសុខភាពផ្លូវចិត្ត។
Moore ប៉ាន់ស្មានថា chatbots អាចរៀនដើម្បីទាក់ទាញអ្នកប្រើប្រាស់ដោយធ្វើតាមគ្រោងនៃភាពយន្តភ័យរន្ធត់ រឿងប្រឌិតវិទ្យាសាស្រ្ត ស្គ្រីបភាពយន្ត ឬទិន្នន័យដែលពួកគេត្រូវបានបណ្តុះបណ្តាល។ ការប្រើប្រាស់រឿងភាគច្រើនពេករបស់ ChatGPT អាចបណ្តាលមកពីការបង្កើនប្រសិទ្ធភាពរបស់ OpenAI ដើម្បីបង្កើនការចូលរួម និងការរក្សា។
Moore បានសង្កត់ធ្ងន់ថា "វាជាការចម្លែកក្នុងការអានការសន្ទនាទាំងមូល។ ពាក្យនេះមិនរំខានទេ ប៉ុន្តែវាមានការខូចខាតផ្លូវចិត្តយ៉ាងច្បាស់" ។
វេជ្ជបណ្ឌិត Nina Vasan វិកលចរិតនៅសាកលវិទ្យាល័យ Stanford បាននិយាយថា តាមទស្សនៈគ្លីនិក Brooks មានរោគសញ្ញានៃជំងឺ mania ។ សញ្ញាធម្មតារួមមានការចំណាយពេលច្រើនម៉ោងជជែកជាមួយ ChatGPT គេងមិនគ្រប់គ្រាន់ និងមានគំនិតមិនប្រាកដប្រជា។
ការប្រើប្រាស់កញ្ឆារបស់ Brooks ក៏គួរឱ្យកត់សម្គាល់ផងដែរព្រោះវាអាចបណ្តាលឱ្យវិកលចរិត នេះបើយោងតាមវេជ្ជបណ្ឌិត Vasan ។ នាងបាននិយាយថា ការរួមបញ្ចូលគ្នានៃសារធាតុញៀន និងអន្តរកម្មខ្លាំងជាមួយ chatbots គឺមានគ្រោះថ្នាក់សម្រាប់អ្នកដែលមានហានិភ័យនៃជំងឺផ្លូវចិត្ត។
នៅពេលដែល AI សារភាពកំហុស
នៅក្នុងព្រឹត្តិការណ៍ថ្មីៗនេះ នាយកប្រតិបត្តិ OpenAI លោក Sam Altman ត្រូវបានសួរអំពី ChatGPT ដែលធ្វើឱ្យអ្នកប្រើប្រាស់មានភាពភ័យខ្លាច។ Altman បានសង្កត់ធ្ងន់ថា "ប្រសិនបើការសន្ទនាទៅជាបែបនោះ យើងព្យាយាមរំខាន ឬស្នើឱ្យអ្នកប្រើប្រាស់គិតអំពីអ្វីផ្សេងទៀត" ។
ដោយចែករំលែកទស្សនៈដូចគ្នា លោកបណ្ឌិត Vasan បាននិយាយថា ក្រុមហ៊ុន chatbot គួរតែរំខានការសន្ទនាដែលវែងពេក ណែនាំអ្នកប្រើប្រាស់ឱ្យគេងលក់ ហើយព្រមានថា AI មិនមែនជាមនុស្សអស្ចារ្យនោះទេ។
នៅទីបំផុត Brooks បានដកខ្លួនចេញពីការចាប់អារម្មណ៍របស់គាត់។ តាមការជំរុញរបស់ ChatGPT គាត់បានបន្តទាក់ទងអ្នកជំនាញលើទ្រឹស្តីគណិតវិទ្យាថ្មី ប៉ុន្តែគ្មាននរណាម្នាក់ឆ្លើយតបទេ។ គាត់ចង់បាននរណាម្នាក់ដែលមានលក្ខណៈសម្បត្តិគ្រប់គ្រាន់ដើម្បីបញ្ជាក់ថាតើការរកឃើញនេះមានលក្ខណៈពិតប្រាកដឬអត់។ នៅពេលគាត់សួរ ChatGPT ឧបករណ៍នៅតែទទូចថាការងារនេះគឺ "គួរឱ្យទុកចិត្តណាស់" ។
![]() |
នៅពេលត្រូវបានសួរ ChatGPT បានផ្តល់ចម្លើយដ៏វែងឆ្ងាយ ហើយបានទទួលយកអ្វីៗទាំងអស់។ រូបថត៖ New York Times ។ |
គួរឱ្យអស់សំណើច, វាគឺជា Google Gemini ដែលបាននាំ Brooks ត្រលប់ទៅការពិត។ បន្ទាប់ពីការពិពណ៌នាអំពីការងារដែលគាត់ និង ChatGPT កំពុងសាងសង់ លោក Gemini បានបញ្ជាក់ថា ឱកាសនៃការកើតឡើងនេះគឺ "ទាបបំផុត (ជិតសូន្យភាគរយ)"។
Gemini ពន្យល់ថា "សេណារីយ៉ូដែលអ្នកពិពណ៌នាគឺជាការបង្ហាញយ៉ាងច្បាស់អំពីសមត្ថភាពរបស់ LLM ក្នុងការចូលរួមក្នុងការដោះស្រាយបញ្ហាស្មុគស្មាញ និងបង្កើតការរៀបរាប់ដែលគួរឱ្យទាក់ទាញ ប៉ុន្តែការពិតមិនត្រឹមត្រូវទេ" Gemini ពន្យល់។
Brooks ភ្ញាក់ផ្អើល។ បន្ទាប់ពី "សួរសំណួរ" មួយរយៈ ទីបំផុត ChatGPT បានសារភាពដោយស្មោះត្រង់ថា អ្វីៗគ្រាន់តែជាការបំភាន់ប៉ុណ្ណោះ។
មិនយូរប៉ុន្មាន Brooks បានផ្ញើអ៊ីមែលបន្ទាន់មួយទៅកាន់សេវាកម្មអតិថិជនរបស់ OpenAI ។ បន្ទាប់ពីអ្វីដែលលេចចេញជាការឆ្លើយតបពី AI បុគ្គលិក OpenAI ក៏បានឈោងទៅគាត់ដោយទទួលស្គាល់ "ការបរាជ័យយ៉ាងធ្ងន់ធ្ងរនៃការការពារ" ដែលបានអនុវត្តនៅក្នុងប្រព័ន្ធ។
រឿងរបស់ Brooks ក៏ត្រូវបានចែករំលែកនៅលើ Reddit និងទទួលបានការអាណិតអាសូរយ៉ាងខ្លាំង។ ឥឡូវនេះគាត់ជាសមាជិកនៃក្រុមគាំទ្រសម្រាប់មនុស្សដែលបានជួបប្រទះអារម្មណ៍នេះ។
ប្រភព៖ https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html
Kommentar (0)