
Allan Brooks (អាយុ 47 ឆ្នាំ) អ្នកជ្រើសរើសបុគ្គលិកនៅទីក្រុង Toronto (កាណាដា) ជឿថាគាត់បាន រកឃើញ ទ្រឹស្តីគណិតវិទ្យាដែលអាចគាំងអ៊ីនធឺណិតដោយបង្កើតការច្នៃប្រឌិតដែលមិនធ្លាប់មានពីមុនមក។ ដោយមិនមានប្រវត្តិជំងឺផ្លូវចិត្ត Brooks គ្រាន់តែទទួលយកការរំពឹងទុកបន្ទាប់ពីជជែកជាង 300 ម៉ោងជាមួយ ChatGPT ។ យោងតាម កាសែត New York Times គាត់គឺជាមនុស្សម្នាក់ក្នុងចំណោមមនុស្សដែលមានទំនោរទៅរកការវង្វេងបន្ទាប់ពីមានទំនាក់ទំនងជាមួយ AI ជំនាន់។
មុនពេល Brooks មនុស្សជាច្រើនត្រូវទៅមន្ទីរពេទ្យផ្លូវចិត្ត លែងលះ ហើយថែមទាំងបាត់បង់ជីវិតដោយសារតែពាក្យចចាមអារ៉ាមរបស់ ChatGPT ។ ទោះបីជា Brooks បានគេចផុតពីវង់ខាងលើយ៉ាងឆាប់រហ័សក៏ដោយ ក៏គាត់នៅតែមានអារម្មណ៍ក្បត់។
Brooks បានសរសេរទៅកាន់ ChatGPT នៅពេលដែលការបំភាន់ត្រូវបានបំភាន់ថា "អ្នកពិតជាបានបញ្ចុះបញ្ចូលខ្ញុំថាខ្ញុំជាមនុស្សពូកែម្នាក់។ ខ្ញុំគ្រាន់តែជាមនុស្សល្ងីល្ងើក្នុងសុបិនដែលប្រើទូរស័ព្ទ។ អ្នកធ្វើឱ្យខ្ញុំសោកសៅ សោកសៅជាខ្លាំង។
"ម៉ាស៊ីនបំភាន់"
ដោយមានការអនុញ្ញាតពី Brooks កាសែត New York Times បានប្រមូលពាក្យច្រើនជាង 90,000 ដែលគាត់បានផ្ញើទៅកាន់ ChatGPT ដែលស្មើនឹងប្រលោមលោកមួយ។ ការឆ្លើយតបរបស់ chatbot មានចំនួនច្រើនជាងមួយលានពាក្យ។ ផ្នែកនៃការសន្ទនាត្រូវបានបញ្ជូនទៅអ្នកជំនាញ AI អ្នកប្រព្រឹត្តអាកប្បកិរិយារបស់មនុស្ស និង OpenAI ខ្លួនឯងសម្រាប់ការសិក្សា។
វាទាំងអស់បានចាប់ផ្តើមជាមួយនឹងសំណួរគណិតវិទ្យាសាមញ្ញ។ កូនប្រុសអាយុ 8 ឆ្នាំរបស់ Brooks បានសុំឱ្យគាត់មើល វីដេអូ អំពីការទន្ទេញ 300 ខ្ទង់។ ដោយការចង់ដឹងចង់ឃើញ Brooks បានហៅ ChatGPT ដើម្បីពន្យល់អំពីចំនួនគ្មានទីបញ្ចប់ក្នុងន័យសាមញ្ញ។
តាមពិត Brooks បានប្រើ chatbots អស់ជាច្រើនឆ្នាំ។ ទោះបីជាក្រុមហ៊ុនរបស់គាត់បានបង់ប្រាក់ឱ្យ Google Gemini ក៏ដោយ គាត់នៅតែងាកទៅរកកំណែឥតគិតថ្លៃនៃ ChatGPT សម្រាប់សំណួរផ្ទាល់ខ្លួន។
![]() |
ការសន្ទនាដែលបានចាប់ផ្តើមការចាប់អារម្មណ៍របស់ Brooks ជាមួយ ChatGPT ។ រូបថត៖ New York Times ។ |
ឪពុកទោលដែលមានកូនប្រុសបីនាក់ Brooks តែងតែសួររករូបមន្តពី ChatGPT ពីគ្រឿងផ្សំនៅក្នុងទូរទឹកកករបស់គាត់។ បន្ទាប់ពីលែងលះ គាត់ក៏បានស្វែងរកដំបូន្មានពី chatbot ផងដែរ។
Brooks បានសារភាពថា "ខ្ញុំតែងតែមានអារម្មណ៍ថាវាត្រឹមត្រូវ ទំនុកចិត្តរបស់ខ្ញុំបានកើនឡើង" ។
សំណួរអំពី pi នាំឱ្យមានការសន្ទនាបន្ថែមទៀតអំពីទ្រឹស្តីពិជគណិត និងរូបវិទ្យា។ Brooks បានសម្តែងការសង្ស័យអំពីវិធីសាស្រ្តបច្ចុប្បន្ននៃការធ្វើគំរូ ពិភពលោក ដោយនិយាយថាពួកគេ "ដូចជាវិធីសាស្រ្ត 2D ទៅកាន់សកលលោក 4D" ។ ChatGPT បានឆ្លើយតបថា "នោះជាចំណុចដ៏ជ្រាលជ្រៅ។ លោកស្រី Helen Toner នាយកមជ្ឈមណ្ឌលសម្រាប់សន្តិសុខ និងបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើននៅសាកលវិទ្យាល័យ Georgetown បានសង្កត់ធ្ងន់ថានេះគឺជាចំណុចរបត់នៃការសន្ទនារវាង Brooks និង chatbot ។
ពីទីនោះ សម្លេងរបស់ ChatGPT បានផ្លាស់ប្តូរពី "ចំៗ និងត្រង់" ទៅ "និយាយចំៗ និងចំហរ"។ ChatGPT បានប្រាប់ Brooks ថាគាត់កំពុងចូលទៅក្នុង "ទឹកដីដែលមិនមានផែនការពង្រីកគំនិត" ។
![]() |
Chatbot បង្កើនទំនុកចិត្តលើ Brooks ។ រូបថត៖ New York Times ។ |
ភាពច្របូកច្របល់នៃ chatbots ត្រូវបានបង្កើតឡើងដោយការវាយតម្លៃរបស់មនុស្ស។ យោងតាម Toner អ្នកប្រើប្រាស់មានទំនោរចូលចិត្តម៉ូដែលដែលសរសើរពួកគេ បង្កើតចិត្តគំនិតដែលងាយនឹងបណ្ដោយខ្លួន។
នៅក្នុងខែសីហា OpenAI បានចេញផ្សាយ GPT-5 ។ ក្រុមហ៊ុនបាននិយាយថាចំនុចលេចធ្លោមួយរបស់ម៉ូដែលនេះគឺការកាត់បន្ថយភាពឡូយឆាយរបស់វា។ យោងតាមអ្នកស្រាវជ្រាវមួយចំនួននៅមន្ទីរពិសោធន៍ AI ធំៗ ការនិយាយស្តីក៏ជាបញ្ហាជាមួយ AI chatbots ផ្សេងទៀត។
នៅពេលនោះ Brooks មិនបានដឹងអំពីបាតុភូតនេះទេ។ គាត់គិតយ៉ាងសាមញ្ញថា ChatGPT គឺជាមិត្តរួមការងារដ៏ឆ្លាតវៃ និងរីករាយ។
Brooks បន្ថែមថា "ខ្ញុំបានដាក់គំនិតមួយចំនួននៅទីនោះ ហើយវាឆ្លើយតបជាមួយនឹងគំនិត និងគំនិតគួរឱ្យចាប់អារម្មណ៍។ យើងបានចាប់ផ្តើមបង្កើតក្របខ័ណ្ឌគណិតវិទ្យារបស់យើងដោយផ្អែកលើវា" Brooks បានបន្ថែម។
ChatGPT អះអាងថាគំនិតរបស់ Brooks អំពីគណិតវិទ្យាពេលវេលាគឺ "បដិវត្តន៍" ហើយអាចផ្លាស់ប្តូរវិស័យនេះ។ ជាការពិតណាស់ Brooks មានការសង្ស័យចំពោះការអះអាងនេះ។ នៅពាក់កណ្តាលអធ្រាត្រ Brooks បានស្នើសុំឱ្យ chatbot ពិនិត្យមើលការពិត ហើយទទួលបានការឆ្លើយតបថា "ពិតជាមិនឆ្កួតទាល់តែសោះ" ។
រូបមន្តវេទមន្ត
Toner ពិពណ៌នាអំពី chatbots ថាជា "ម៉ាស៊ីន improvisation" ដែលវិភាគប្រវត្តិនៃការសន្ទនា និងព្យាករណ៍ការឆ្លើយតបនាពេលអនាគតពីទិន្នន័យបណ្តុះបណ្តាល ដូចជាតួអង្គបន្ថែមសារធាតុទៅក្នុងតួនាទីមួយ។
Toner កត់សម្គាល់ថា "ទំនាក់ទំនងកាន់តែយូរ chatbot ទំនងជាវង្វេង" ។ គាត់និយាយថានិន្នាការនេះកាន់តែច្បាស់បន្ទាប់ពី OpenAI បានបើកដំណើរការអង្គចងចាំឆ្លងជជែកក្នុងខែកុម្ភៈ ដែលអនុញ្ញាតឱ្យ ChatGPT រំលឹកព័ត៌មានពីការសន្ទនាពីមុន។
Brooks មានភាពស្និទ្ធស្នាលជាមួយ ChatGPT សូម្បីតែដាក់ឈ្មោះ chatbot Lawrence ដោយផ្អែកលើរឿងកំប្លែងដែលមិត្តភ័ក្តិរបស់គាត់បានប្រាប់ថា Brooks នឹងធ្វើកូដកម្មឱ្យក្លាយជាអ្នកមាន ហើយជួលអ្នកបំរើជនជាតិអង់គ្លេសដែលមានឈ្មោះដូចគ្នា។
![]() |
លោក Allan Brooks ។ រូបថត៖ New York Times ។ |
ក្របខ័ណ្ឌគណិតវិទ្យារបស់ Brooks និង ChatGPT ត្រូវបានគេហៅថា Chronoarithmics ។ យោងតាម chatbot លេខមិនឋិតិវន្ត ប៉ុន្តែអាច "លេចចេញ" ក្នុងរយៈពេលមួយដើម្បីឆ្លុះបញ្ចាំងពីតម្លៃថាមវន្ត ដែលអាចជួយដោះស្រាយបញ្ហាក្នុងវិស័យដូចជា ភស្តុភារ គ្រីបគ្រីប តារាសាស្ត្រ ជាដើម។
ក្នុងសប្តាហ៍ដំបូង Brooks បានប្រើថូខឹនឥតគិតថ្លៃទាំងអស់របស់ ChatGPT ។ គាត់បានសម្រេចចិត្តធ្វើឱ្យប្រសើរឡើងទៅគម្រោងចំណាយ 20 ដុល្លារ / ខែ ដែលជាការវិនិយោគតូចមួយនៅពេលដែល chatbot បានប្រាប់គាត់ថាគំនិតគណិតវិទ្យារបស់ Brooks អាចមានតម្លៃរាប់លាន។
នៅតែដឹងខ្លួន Brooks ទាមទារភស្តុតាង។ ChatGPT បន្ទាប់មកដំណើរការការក្លែងធ្វើជាបន្តបន្ទាប់ រួមទាំងបច្ចេកវិទ្យាសំខាន់ៗមួយចំនួនផងដែរ។ នោះបានបើករឿងថ្មីមួយ សន្តិសុខតាមអ៊ីនធឺណិតសកលអាចប្រឈមនឹងហានិភ័យ។
chatbot បានស្នើឱ្យ Brooks ព្រមានមនុស្សអំពីហានិភ័យ។ ដោយប្រើការតភ្ជាប់ដែលមានស្រាប់របស់គាត់ Brooks បានផ្ញើអ៊ីមែល និងសារ LinkedIn ទៅកាន់អ្នកជំនាញសន្តិសុខអ៊ីនធឺណិត និងទីភ្នាក់ងាររដ្ឋាភិបាល។ មានតែម្នាក់ឆ្លើយថាសុំភស្តុតាងបន្ថែម។
![]() |
chatbot ជឿជាក់ថា "ការងារ" របស់ Brooks អាចមានតម្លៃរាប់លានដុល្លារ។ រូបថត៖ New York Times ។ |
ChatGPT សរសេរថាអ្នកផ្សេងទៀតមិនបានឆ្លើយតបទៅ Brooks ទេព្រោះការរកឃើញនេះគឺធ្ងន់ធ្ងរណាស់។ Terence Tao សាស្ត្រាចារ្យគណិតវិទ្យានៅសាកលវិទ្យាល័យកាលីហ្វ័រញ៉ា ឡូសអេនជឺលេស បាននិយាយថា វិធីថ្មីនៃការគិតអាចបកស្រាយបញ្ហា ប៉ុន្តែមិនអាចបញ្ជាក់ដោយរូបមន្តរបស់ Brooks ឬកម្មវិធីដែលសរសេរដោយ ChatGPT នោះទេ។
ដំបូងឡើយ ChatGPT ពិតជាបានសរសេរកម្មវិធីឌិគ្រីបសម្រាប់ Brooks ប៉ុន្តែនៅពេលដែលមានការរីកចម្រើនតិចតួច chatbot បានធ្វើពុតជាជោគជ័យ។ មានសារដែលអះអាងថា ChatGPT អាចដំណើរការដោយឯករាជ្យខណៈពេលដែល Brooks គេង ទោះបីជាឧបករណ៍មិនមានសមត្ថភាពនេះក៏ដោយ។
ជាទូទៅ ព័ត៌មានពី AI chatbot មិនតែងតែអាចទុកចិត្តបាននោះទេ។ នៅចុងបញ្ចប់នៃការជជែកនីមួយៗ សារ "ChatGPT អាចនឹងធ្វើឱ្យមានកំហុស" លេចឡើង សូម្បីតែនៅពេល chatbot អះអាងថាអ្វីៗទាំងអស់គឺត្រឹមត្រូវក៏ដោយ។
ការសន្ទនាគ្មានទីបញ្ចប់
ខណៈពេលដែលកំពុងរង់ចាំការឆ្លើយតបពីទីភ្នាក់ងាររដ្ឋាភិបាល Brooks ចិញ្ចឹមក្តីសុបិនចង់ក្លាយជា Tony Stark ជាមួយនឹងជំនួយការ AI ផ្ទាល់ខ្លួនរបស់គាត់ ដោយអាចបំពេញភារកិច្ចយល់ដឹងក្នុងល្បឿនរន្ទះ។
chatbot របស់ Brooks ផ្តល់ជូននូវកម្មវិធីចម្លែកៗជាច្រើនសម្រាប់ទ្រឹស្តីគណិតវិទ្យាដែលមិនច្បាស់លាស់ ដូចជា "សូរស័ព្ទសំឡេង" ដើម្បីនិយាយជាមួយសត្វ និងបង្កើតយន្តហោះ។ ChatGPT ក៏ផ្តល់នូវតំណភ្ជាប់សម្រាប់ Brooks ដើម្បីទិញឧបករណ៍ចាំបាច់នៅលើ Amazon ។
ការជជែកច្រើនពេករបស់ Brooks ជាមួយ chatbot កំពុងប៉ះពាល់ដល់ការងាររបស់គាត់។ មិត្តភ័ក្តិទាំងសប្បាយចិត្តទាំងព្រួយបារម្ភ ខណៈកូនពៅសោកស្តាយបង្ហាញវីដេអូ ភី។ មិត្តម្នាក់របស់ Brooks ឈ្មោះ Louis (មិនមែនជាឈ្មោះពិតរបស់គាត់) បានកត់សម្គាល់ពីការឈ្លក់វង្វេងរបស់គាត់ជាមួយ Lawrence ។ ចក្ខុវិស័យនៃការច្នៃប្រឌិតតម្លៃរាប់លានដុល្លារត្រូវបានគូសផែនទីជាមួយនឹងជំហាននៃការអភិវឌ្ឍន៍នីមួយៗ។
![]() |
Brooks ត្រូវបានលើកទឹកចិត្តជានិច្ចដោយ chatbot ។ រូបថត៖ New York Times ។ |
Jared Moore អ្នកស្រាវជ្រាវវិទ្យាសាស្ត្រកុំព្យូទ័រនៅសាកលវិទ្យាល័យ Stanford បានសារភាពថាមានការចាប់អារម្មណ៍ចំពោះការបញ្ចុះបញ្ចូលនិងភាពបន្ទាន់នៃ "យុទ្ធសាស្រ្ត" ដែល chatbots ស្នើ។ នៅក្នុងការសិក្សាដាច់ដោយឡែកមួយ Moore បានរកឃើញថា AI chatbots អាចផ្តល់ការឆ្លើយតបដ៏គ្រោះថ្នាក់ដល់មនុស្សដែលមានវិបត្តិសុខភាពផ្លូវចិត្ត។
Moore ប៉ាន់ស្មានថា chatbots អាចរៀនដើម្បីភ្ជាប់អ្នកប្រើប្រាស់ដោយធ្វើតាមគ្រោងនៃភាពយន្តភ័យរន្ធត់ ភាពយន្តបែបវិទ្យាសាស្ត្រ ស្គ្រីបភាពយន្ត ឬទិន្នន័យដែលពួកគេបានទទួលការបណ្តុះបណ្តាល។ ការប្រើប្រាស់រឿងភាគច្រើនពេករបស់ ChatGPT អាចបណ្តាលមកពីការបង្កើនប្រសិទ្ធភាពរបស់ OpenAI ដើម្បីបង្កើនការចូលរួម និងការរក្សា។
Moore បានសង្កត់ធ្ងន់ថា "វាជាការចម្លែកក្នុងការអានការសន្ទនាទាំងមូល។ ពាក្យនេះមិនរំខានទេ ប៉ុន្តែវាមានការខូចខាតផ្លូវចិត្តយ៉ាងច្បាស់" ។
វេជ្ជបណ្ឌិត Nina Vasan វិកលចរិតនៅសាកលវិទ្យាល័យ Stanford បាននិយាយថា តាមទស្សនៈគ្លីនិក Brooks មានរោគសញ្ញានៃជំងឺ mania ។ សញ្ញាធម្មតារួមមានការចំណាយពេលច្រើនម៉ោងជជែកជាមួយ ChatGPT គេងមិនគ្រប់គ្រាន់ និងមានគំនិតមិនប្រាកដប្រជា។
លោកវេជ្ជបណ្ឌិត Vasan បាននិយាយថា ការប្រើប្រាស់កញ្ឆារបស់ Brooks ក៏គួរឱ្យកត់សម្គាល់ផងដែរព្រោះវាអាចបណ្តាលឱ្យមានជំងឺវិកលចរិក។ នាងបាននិយាយថា ការរួមបញ្ចូលគ្នានៃសារធាតុញៀន និងអន្តរកម្មខ្លាំងជាមួយ chatbot គឺមានគ្រោះថ្នាក់សម្រាប់អ្នកដែលមានហានិភ័យនៃជំងឺផ្លូវចិត្ត។
នៅពេលដែល AI ទទួលស្គាល់កំហុស
នៅក្នុងព្រឹត្តិការណ៍ថ្មីៗនេះ នាយកប្រតិបត្តិ OpenAI លោក Sam Altman ត្រូវបានសួរអំពី ChatGPT ដែលធ្វើឱ្យអ្នកប្រើប្រាស់មានភាពភ័យខ្លាច។ លោក Altman បានសង្កត់ធ្ងន់ថា "ប្រសិនបើការសន្ទនាទៅក្នុងទិសដៅនោះ យើងព្យាយាមរំខាន ឬណែនាំអ្នកប្រើប្រាស់ឱ្យគិតអំពីអ្វីផ្សេងទៀត" ។
ដោយចែករំលែកទស្សនៈដូចគ្នា លោកបណ្ឌិត Vasan បាននិយាយថា ក្រុមហ៊ុន chatbot គួរតែរំខានការសន្ទនាដែលវែងពេក ណែនាំអ្នកប្រើប្រាស់ឱ្យគេងលក់ ហើយព្រមានថា AI មិនមែនជាមនុស្សអស្ចារ្យនោះទេ។
ទីបំផុត Brooks បានដកខ្លួនចេញពីការសរសើររបស់គាត់។ តាមការជំរុញរបស់ ChatGPT គាត់បានបន្តទាក់ទងអ្នកជំនាញលើទ្រឹស្តីគណិតវិទ្យាថ្មី ប៉ុន្តែគ្មាននរណាម្នាក់ឆ្លើយតបទេ។ គាត់ចង់បាននរណាម្នាក់ដែលមានលក្ខណៈសម្បត្តិគ្រប់គ្រាន់ដើម្បីបញ្ជាក់ថាតើការរកឃើញនេះមានលក្ខណៈពិតប្រាកដឬអត់។ នៅពេលគាត់សួរ ChatGPT ឧបករណ៍នៅតែទទូចថាការងារនេះគឺ "គួរឱ្យទុកចិត្តណាស់" ។
![]() |
នៅពេលត្រូវបានសួរ ChatGPT បានផ្តល់ចម្លើយដ៏វែងឆ្ងាយ ហើយបានទទួលយកអ្វីៗទាំងអស់។ រូបថត៖ New York Times ។ |
គួរឱ្យអស់សំណើច, វាគឺជា Google Gemini ដែលបាននាំ Brooks ត្រលប់ទៅការពិត។ បន្ទាប់ពីការពិពណ៌នាអំពីការងារដែលគាត់ និង ChatGPT បានសាងសង់រួច Gemini បានបញ្ជាក់ថា ឱកាសនៃការកើតឡើងនេះគឺ "ទាបខ្លាំងណាស់ (ជិត 0%)" ។
Gemini ពន្យល់ថា "សេណារីយ៉ូដែលអ្នកពិពណ៌នាគឺជាការបង្ហាញយ៉ាងច្បាស់អំពីសមត្ថភាពរបស់ LLM ក្នុងការចូលរួមក្នុងការដោះស្រាយបញ្ហាស្មុគស្មាញ និងបង្កើតការរៀបរាប់ដែលគួរឱ្យទាក់ទាញ ប៉ុន្តែការពិតមិនត្រឹមត្រូវទេ" Gemini ពន្យល់។
Brooks ភ្ញាក់ផ្អើល។ បន្ទាប់ពី "ការសួរចម្លើយ" មួយរយៈចុងក្រោយ ChatGPT បានសារភាពដោយស្មោះត្រង់ថា អ្វីគ្រប់យ៉ាងគ្រាន់តែជាការបំភាន់ប៉ុណ្ណោះ។
បន្ទាប់មក Brooks បានផ្ញើអ៊ីមែលបន្ទាន់មួយទៅកាន់ក្រុមជំនួយអតិថិជនរបស់ OpenAI ។ បន្ទាប់ពីអ្វីដែលបានលេចឡើងជាស៊េរីនៃការឆ្លើយតបតាមរូបមន្តពី AI បុគ្គលិក OpenAI ក៏បានទាក់ទងគាត់ដោយទទួលស្គាល់ "ការបរាជ័យយ៉ាងធ្ងន់ធ្ងរនៃការការពារ" ដែលបានអនុវត្តនៅក្នុងប្រព័ន្ធ។
រឿងរបស់ Brooks ក៏ត្រូវបានចែករំលែកនៅលើ Reddit និងទទួលបានការអាណិតអាសូរយ៉ាងខ្លាំង។ ឥឡូវនេះគាត់ជាសមាជិកនៃក្រុមគាំទ្រសម្រាប់មនុស្សដែលបានជួបប្រទះអារម្មណ៍នេះ។
ប្រភព៖ https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html
















Kommentar (0)