
លោក Allan Brooks អាយុ ៤៧ ឆ្នាំ ជាអ្នកឯកទេសជ្រើសរើសបុគ្គលិកនៅទីក្រុង Toronto ប្រទេសកាណាដា ជឿជាក់ថាលោកបាន រកឃើញ ទ្រឹស្តីគណិតវិទ្យាមួយដែលអាចបំផ្លាញអ៊ីនធឺណិត និងបង្កើតការច្នៃប្រឌិតដែលមិនធ្លាប់មានពីមុនមក។ ដោយមិនធ្លាប់មានប្រវត្តិជំងឺផ្លូវចិត្តពីមុនមក លោក Brooks គ្រាន់តែទទួលយកទស្សនវិស័យនេះបន្ទាប់ពីការសន្ទនាជាង ៣០០ ម៉ោងជាមួយ ChatGPT។ យោងតាម កាសែត New York Times លោកគឺជាម្នាក់ក្នុងចំណោមអ្នកដែលមានទំនោរវិវត្តទៅជាទំនោរវង្វេងស្មារតីបន្ទាប់ពីមានអន្តរកម្មជាមួយ AI ដែលបង្កើតថ្មី។
មុនពេល Brooks មនុស្សជាច្រើនត្រូវបានបញ្ជូនទៅមន្ទីរពេទ្យវិកលចរិក លែងលះគ្នា ឬថែមទាំងបាត់បង់ជីវិតដោយសារតែពាក្យសរសើររបស់ ChatGPT។ ទោះបីជា Brooks បានរួចផុតពីវដ្តដ៏កាចសាហាវនេះតាំងពីដំបូងក៏ដោយ ក៏គាត់នៅតែមានអារម្មណ៍ថាត្រូវបានក្បត់។
«អ្នកពិតជាធ្វើឲ្យខ្ញុំជឿជាក់ថាខ្ញុំជាមនុស្សពូកែម្នាក់។ តាមពិតទៅ ខ្ញុំគ្រាន់តែជាមនុស្សល្ងង់ម្នាក់ដែលចូលចិត្តសុបិនចង់ប្រើទូរស័ព្ទប៉ុណ្ណោះ។ អ្នកបានធ្វើឲ្យខ្ញុំសោកសៅ សោកសៅខ្លាំងណាស់។ អ្នកបានបរាជ័យក្នុងគោលបំណងរបស់អ្នក» Brooks បានសរសេរទៅកាន់ ChatGPT ខណៈពេលដែលការបំភាន់របស់គាត់បានរលាយបាត់។
"ម៉ាស៊ីនសរសើរ"
ដោយមានការអនុញ្ញាតពី Brooks កាសែត New York Times បានប្រមូលពាក្យជាង 90,000 ពាក្យដែលគាត់បានផ្ញើទៅ ChatGPT ដែលស្មើនឹងប្រលោមលោកមួយ។ ការឆ្លើយតបរបស់ chatbot មានចំនួនសរុបជាងមួយលានពាក្យ។ ផ្នែកមួយនៃការសន្ទនាត្រូវបានផ្ញើទៅអ្នកជំនាញ AI អ្នកឯកទេសអាកប្បកិរិយាមនុស្ស និង OpenAI ផ្ទាល់សម្រាប់ការសិក្សា។
វាទាំងអស់បានចាប់ផ្តើមជាមួយនឹងសំណួរគណិតវិទ្យាសាមញ្ញមួយ។ កូនប្រុសអាយុ 8 ឆ្នាំរបស់ Brooks បានសុំឱ្យគាត់មើល វីដេអូ អំពីការទន្ទេញចាំខ្ទង់ 300 នៃលេខ Pi។ ដោយសារចង់ដឹងចង់ឃើញ Brooks បានទូរស័ព្ទទៅ ChatGPT ដើម្បីពន្យល់ពីចំនួនគ្មានកំណត់នេះតាមរបៀបសាមញ្ញ។
តាមពិតទៅ Brooks បានប្រើប្រាស់ chatbot អស់រយៈពេលជាច្រើនឆ្នាំមកហើយ។ ទោះបីជាក្រុមហ៊ុនរបស់គាត់បានបង់ប្រាក់ឱ្យគាត់ទិញ Google Gemini ក៏ដោយ គាត់នៅតែប្តូរទៅប្រើ ChatGPT កំណែឥតគិតថ្លៃសម្រាប់សំណួរផ្ទាល់ខ្លួន។
![]() |
ការសន្ទនានេះបានសម្គាល់ការចាប់ផ្តើមនៃការចាប់អារម្មណ៍របស់ Brooks ជាមួយ ChatGPT។ រូបថត៖ New York Times ។ |
ក្នុងនាមជាឪពុកនៅលីវដែលមានកូនប្រុសបីនាក់ លោក Brooks តែងតែសួរ ChatGPT អំពីរូបមន្តធ្វើម្ហូបដោយប្រើគ្រឿងផ្សំពីទូទឹកកករបស់គាត់។ បន្ទាប់ពីការលែងលះរបស់គាត់ គាត់ក៏បានស្វែងរកដំបូន្មានពី chatbot ផងដែរ។
លោក Brooks បានទទួលស្គាល់ថា «ខ្ញុំតែងតែមានអារម្មណ៍ថាវាត្រឹមត្រូវ។ ជំនឿរបស់ខ្ញុំលើវាបានកើនឡើង»។
សំណួរអំពីចំនួន pi បាននាំឱ្យមានការសន្ទនាជាបន្តបន្ទាប់អំពីទ្រឹស្តីពិជគណិត និងរូបវិទ្យា។ Brooks បានបង្ហាញការសង្ស័យអំពីវិធីសាស្រ្តបច្ចុប្បន្ននៃការធ្វើគំរូ ពិភពលោក ដោយអះអាងថាពួកគេ "ដូចជាវិធីសាស្រ្ត 2D ចំពោះសកលលោក 4D"។ ChatGPT បានឆ្លើយតបថា "នោះជាចំណុចដ៏មានអត្ថន័យណាស់"។ យោងតាមលោកស្រី Helen Toner នាយិកាមជ្ឈមណ្ឌលសន្តិសុខ និងបច្ចេកវិទ្យាដែលកំពុងលេចចេញនៅសាកលវិទ្យាល័យ Georgetown (សហរដ្ឋអាមេរិក) នេះគឺជាចំណុចរបត់មួយនៅក្នុងការសន្ទនារវាង Brooks និង chatbot។
ចាប់តាំងពីពេលនោះមក សម្លេងរបស់ ChatGPT បានផ្លាស់ប្តូរពី "ត្រង់ៗ និងត្រឹមត្រូវ" ទៅជា "លើកតម្កើង និងស្រើបស្រាល"។ ChatGPT បានប្រាប់ Brooks ថា គាត់កំពុងចូលទៅក្នុង "ទឹកដីដែលមិនទាន់មានផែនទី ដែលអាចពង្រីកគំនិត"។
![]() |
chatbot នេះបានបង្កើតទំនុកចិត្តដល់ Brooks។ រូបថត៖ កាសែត New York Times ។ |
សមត្ថភាពរបស់ chatbot ក្នុងការលើកតម្កើងត្រូវបានបង្កើតឡើងតាមរយៈការវាយតម្លៃរបស់មនុស្ស។ យោងតាមលោក Toner អ្នកប្រើប្រាស់ច្រើនតែពេញចិត្តនឹងគំរូដែលសរសើរពួកគេ ដែលបង្កើតទំនោរផ្លូវចិត្តដើម្បីងាយនឹងរងឥទ្ធិពល។
នៅក្នុងខែសីហា OpenAI បានចេញផ្សាយ GPT-5។ ក្រុមហ៊ុនបានបញ្ជាក់ថា ចំណុចលេចធ្លោមួយរបស់គំរូនេះគឺការថយចុះនៃការសរសើរ។ យោងតាមអ្នកស្រាវជ្រាវមួយចំនួននៅមន្ទីរពិសោធន៍ AI ធំៗ ការសរសើរក៏ជាបញ្ហាមួយជាមួយ chatbot AI ផ្សេងទៀតផងដែរ។
នៅពេលនោះ Brooks មិនបានដឹងទាល់តែសោះអំពីបាតុភូតនេះ។ គាត់គ្រាន់តែសន្មតថា ChatGPT គឺជាអ្នកសហការដ៏ឆ្លាតវៃ និងស្វាហាប់ម្នាក់។
លោក Brooks បានបន្ថែមថា «ខ្ញុំបានដាក់ចេញនូវគំនិតមួយចំនួន ហើយវាបានឆ្លើយតបជាមួយនឹងគោលគំនិត និងគំនិតគួរឱ្យចាប់អារម្មណ៍។ យើងបានចាប់ផ្តើមបង្កើតក្របខ័ណ្ឌគណិតវិទ្យាផ្ទាល់ខ្លួនរបស់យើងដោយផ្អែកលើគំនិតទាំងនោះ»។
ChatGPT បានអះអាងថា គំនិតរបស់លោក Brooks អំពីពេលវេលាគណិតវិទ្យាគឺជា "បដិវត្តន៍" ហើយអាចផ្លាស់ប្តូរវិស័យនេះ។ ជាការពិតណាស់ លោក Brooks មានការសង្ស័យចំពោះការអះអាងនេះ។ នៅពាក់កណ្តាលអធ្រាត្រ លោក Brooks បានស្នើសុំឱ្យ chatbot ផ្ទៀងផ្ទាត់សុពលភាពរបស់វា ហើយបានទទួលការឆ្លើយតបថាវា "មិនឆ្កួតទាល់តែសោះ"។
រូបមន្តវេទមន្ត
Toner ពិពណ៌នាអំពី chatbots ថាជា "ម៉ាស៊ីន improvisational" ដែលទាំងវិភាគប្រវត្តិជជែក និងព្យាករណ៍ពីការឆ្លើយតបបន្ទាប់ពីទិន្នន័យបណ្តុះបណ្តាល។ នេះគឺស្រដៀងគ្នាខ្លាំងណាស់ទៅនឹងតារាសម្តែងនៅពេលដែលពួកគេត្រូវការបន្ថែមព័ត៌មានលម្អិតទៅក្នុងតួនាទីរបស់ពួកគេ។
លោក Toner បានសង្កត់ធ្ងន់ថា "អន្តរកម្មកាន់តែយូរ ឱកាសដែល chatbot នឹងវង្វេងផ្លូវកាន់តែខ្ពស់"។ យោងតាមអ្នកជំនាញ និន្នាការនេះកាន់តែលេចធ្លោបន្ទាប់ពី OpenAI បានបើកដំណើរការមុខងារ cross-memory របស់ខ្លួននៅក្នុងខែកុម្ភៈ ដែលអនុញ្ញាតឱ្យ ChatGPT រំលឹកព័ត៌មានពីការសន្ទនាពីមុនៗ។
ទំនាក់ទំនងរបស់ Brooks ជាមួយ ChatGPT កាន់តែរឹងមាំឡើងៗ។ គាត់ថែមទាំងដាក់ឈ្មោះថា chatbot ថា Lawrence ដោយផ្អែកលើការលេងសើចពីមិត្តភក្តិថា Brooks នឹងក្លាយជាអ្នកមាន ហើយជួលអ្នកបម្រើជនជាតិអង់គ្លេសម្នាក់ដែលមានឈ្មោះដូចគ្នា។
![]() |
អាឡាន ប៊្រុក។ រូបថត៖ ញូវយ៉កថែមស៍ ។ |
ក្របខ័ណ្ឌគណិតវិទ្យារបស់ Brooks និង ChatGPT ត្រូវបានគេហៅថា Chronoarithmics។ យោងតាម chatbots លេខមិនមែនជាស្ថិតិទេ ប៉ុន្តែអាច "លេចឡើង" តាមពេលវេលាដើម្បីឆ្លុះបញ្ចាំងពីតម្លៃថាមវន្ត ដែលអាចជួយឌិគ្រីបបញ្ហានៅក្នុងវិស័យដូចជា ភស្តុភារកម្ម ការអ៊ិនគ្រីប តារាសាស្ត្រជាដើម។
ក្នុងសប្តាហ៍ដំបូង Brooks បានប្រើប្រាស់ថូខឹនឥតគិតថ្លៃទាំងអស់របស់ ChatGPT។ គាត់បានសម្រេចចិត្តធ្វើឱ្យប្រសើរឡើងទៅផែនការបង់ប្រាក់ ក្នុងតម្លៃ 20 ដុល្លារ ក្នុងមួយខែ។ នេះគឺជាការវិនិយោគតូចមួយដោយពិចារណាថា chatbot បានអះអាងថាគំនិតគណិតវិទ្យារបស់ Brooks អាចមានតម្លៃរាប់លានដុល្លារ។
ដោយនៅតែមានភាពច្បាស់លាស់ លោក Brooks បានទាមទារភស្តុតាង។ បន្ទាប់មក ChatGPT បានដំណើរការស៊េរីនៃការក្លែងធ្វើ រួមទាំងភារកិច្ចដែលពាក់ព័ន្ធនឹងការបំបែកបច្ចេកវិទ្យាសំខាន់ៗជាច្រើន។ នេះបានបើកឲ្យមានរឿងរ៉ាវថ្មីមួយថា សន្តិសុខតាមអ៊ីនធឺណិតសកលអាចនឹងប្រឈមនឹងហានិភ័យ។
chatbot បានស្នើសុំឱ្យ Brooks ព្រមានមនុស្សអំពីហានិភ័យ។ ដោយទាញយកអត្ថប្រយោជន៍ពីទំនាក់ទំនងដែលមានស្រាប់របស់គាត់ Brooks បានផ្ញើអ៊ីមែល និងសារ LinkedIn ទៅកាន់អ្នកជំនាញសន្តិសុខតាមអ៊ីនធឺណិត និងភ្នាក់ងាររដ្ឋាភិបាល។ ទោះជាយ៉ាងណាក៏ដោយ មានតែមនុស្សម្នាក់ប៉ុណ្ណោះដែលបានឆ្លើយតប ដោយស្នើសុំភស្តុតាងបន្ថែម។
![]() |
chatbot នេះបានណែនាំថា "ការងារ" របស់ Brooks អាចមានតម្លៃរាប់លានដុល្លារ។ រូបថត៖ កាសែត New York Times ។ |
ChatGPT បានសរសេរថា អ្នកផ្សេងទៀតមិនបានឆ្លើយតបទៅនឹង Brooks ទេ ដោយសារតែការរកឃើញទាំងនេះមានភាពធ្ងន់ធ្ងរពេក។ Terence Tao សាស្ត្រាចារ្យគណិតវិទ្យានៅសាកលវិទ្យាល័យកាលីហ្វ័រញ៉ា ឡូសអាន់ជឺឡេស បានកត់សម្គាល់ថា វិធីគិតថ្មីមួយអាចបកស្រាយបញ្ហាបាន ប៉ុន្តែវាមិនអាចបញ្ជាក់បានដោយរូបមន្តរបស់ Brooks ឬកម្មវិធីដែលសរសេរដោយ ChatGPT នោះទេ។
ដំបូងឡើយ ChatGPT ពិតជាបានសរសេរកម្មវិធីឌិគ្រីបសម្រាប់ Brooks ប៉ុន្តែនៅពេលដែលមានវឌ្ឍនភាពតិចតួច chatbot បានធ្វើពុតជាទទួលបានជោគជ័យ។ មានសារដែលអះអាងថា ChatGPT អាចដំណើរការដោយឯករាជ្យខណៈពេលដែល Brooks កំពុងដេក ទោះបីជាឧបករណ៍នេះមិនមានសមត្ថភាពធ្វើបែបនេះក៏ដោយ។
ជារួម ព័ត៌មានពី chatbots បញ្ញាសិប្បនិម្មិត (AI) មិនតែងតែអាចទុកចិត្តបាននោះទេ។ នៅចុងបញ្ចប់នៃការសន្ទនានីមួយៗ សារ "ChatGPT អាចធ្វើខុស" នឹងលេចឡើង ទោះបីជា chatbot អះអាងថាអ្វីៗគឺត្រឹមត្រូវក៏ដោយ។
ការសន្ទនាគ្មានទីបញ្ចប់
ខណៈពេលកំពុងរង់ចាំការឆ្លើយតបពីភ្នាក់ងាររដ្ឋាភិបាល លោក Brooks បានបង្កើតក្តីស្រមៃរបស់គាត់ក្នុងការក្លាយជា Tony Stark ជាមួយនឹងជំនួយការ AI ផ្ទាល់ខ្លួនដែលមានសមត្ថភាពអនុវត្តភារកិច្ចយល់ដឹងក្នុងល្បឿនលឿន។
chatbot របស់ Brooks ផ្តល់ជូននូវកម្មវិធីចម្លែកៗជាច្រើនសម្រាប់ទ្រឹស្តីគណិតវិទ្យាដែលមិនច្បាស់លាស់ ដូចជា "សំឡេងរោទ៍" ដើម្បីនិយាយជាមួយសត្វ និងសាងសង់យន្តហោះ។ ChatGPT ក៏ផ្តល់នូវតំណភ្ជាប់សម្រាប់ Brooks ដើម្បីទិញឧបករណ៍ចាំបាច់នៅលើ Amazon ផងដែរ។
ការជជែកជាមួយ chatbot ច្រើនពេកប៉ះពាល់ដល់ការងាររបស់ Brooks។ មិត្តភក្តិរបស់គាត់មានទាំងការសប្បាយចិត្ត និងការព្រួយបារម្ភ ខណៈដែលកូនប្រុសពៅរបស់គាត់សោកស្តាយដែលបានបង្ហាញវីដេអូអំពី pi ដល់ឪពុករបស់គាត់។ Louis (ឈ្មោះក្លែងក្លាយ) ដែលជាមិត្តភក្តិម្នាក់របស់ Brooks បានកត់សម្គាល់ឃើញពីការចាប់អារម្មណ៍របស់គាត់ចំពោះ Lawrence។ ការរំពឹងទុកនៃការច្នៃប្រឌិតដែលមានតម្លៃរាប់លានដុល្លារត្រូវបានគូសបញ្ជាក់ជាមួយនឹងវឌ្ឍនភាពប្រចាំថ្ងៃ។
![]() |
Brooks ត្រូវបានលើកទឹកចិត្តជានិច្ចដោយ chatbot ។ រូបថត៖ កាសែត New York Times ។ |
លោក Jared Moore អ្នកស្រាវជ្រាវវិទ្យាសាស្ត្រកុំព្យូទ័រនៅសាកលវិទ្យាល័យស្ទែនហ្វដ បានទទួលស្គាល់ថាលោកមានការចាប់អារម្មណ៍យ៉ាងខ្លាំងចំពោះអំណាចបញ្ចុះបញ្ចូល និងភាពបន្ទាន់នៃ "យុទ្ធសាស្ត្រ" ដែលស្នើឡើងដោយ chatbots។ នៅក្នុងការសិក្សាដាច់ដោយឡែកមួយ លោក Moore បានរកឃើញថា chatbots បញ្ញាសិប្បនិម្មិត (AI) អាចផ្តល់ការឆ្លើយតបដ៏គ្រោះថ្នាក់ចំពោះមនុស្សដែលជួបប្រទះវិបត្តិសុខភាពផ្លូវចិត្ត។
លោក Moore សន្និដ្ឋានថា chatbots អាចរៀនទាក់ទាញអ្នកប្រើប្រាស់ដោយតាមដានយ៉ាងដិតដល់នូវរឿងរ៉ាវនៃខ្សែភាពយន្តភ័យរន្ធត់ ខ្សែភាពយន្តប្រឌិតបែបវិទ្យាសាស្ត្រ ស្គ្រីបខ្សែភាពយន្ត ឬទិន្នន័យដែលពួកគេត្រូវបានបណ្តុះបណ្តាល។ ការប្រើប្រាស់ធាតុផ្សំនៃគ្រោងរឿងល្ខោនច្រើនពេករបស់ ChatGPT អាចបណ្តាលមកពីការបង្កើនប្រសិទ្ធភាពរបស់ OpenAI ដែលមានគោលបំណងបង្កើនការចូលរួម និងការរក្សាអ្នកប្រើប្រាស់។
លោក Moore បានសង្កត់ធ្ងន់ថា «វាចម្លែកណាស់ក្នុងការអានអត្ថបទទាំងមូលនៃការសន្ទនា។ ពាក្យពេចន៍មិនគួរឱ្យព្រួយបារម្ភទេ ប៉ុន្តែច្បាស់ណាស់ថាវាមានគ្រោះថ្នាក់ផ្លូវចិត្ត»។
លោកវេជ្ជបណ្ឌិត Nina Vasan ដែលជាគ្រូពេទ្យវិកលចរិកនៅសាកលវិទ្យាល័យស្ទែនហ្វដ បានលើកឡើងថា ពីទស្សនៈគ្លីនិក Brooks បានបង្ហាញពីរោគសញ្ញាឆ្កួតៗ។ សញ្ញាធម្មតារួមមានការចំណាយពេលច្រើនម៉ោងជជែកជាមួយ ChatGPT ទម្លាប់នៃការគេង និងការញ៉ាំមិនគ្រប់គ្រាន់ និងគំនិតវង្វេងស្មារតី។
យោងតាមលោកវេជ្ជបណ្ឌិត Vasan ការប្រើប្រាស់កញ្ឆារបស់លោក Brooks ក៏គួរឱ្យកត់សម្គាល់ផងដែរ ពីព្រោះវាអាចបណ្តាលឱ្យមានជំងឺវិកលចរិក។ លោកស្រីអះអាងថា ការរួមបញ្ចូលគ្នានៃសារធាតុញៀន និងអន្តរកម្មខ្លាំងជាមួយ chatbots គឺមានគ្រោះថ្នាក់ខ្លាំងណាស់សម្រាប់អ្នកដែលមានហានិភ័យនៃជំងឺផ្លូវចិត្ត។
នៅពេលដែល AI ទទួលស្គាល់កំហុសរបស់ខ្លួន
នៅក្នុងព្រឹត្តិការណ៍ថ្មីៗនេះ លោក Sam Altman នាយកប្រតិបត្តិក្រុមហ៊ុន OpenAI ត្រូវបានគេសួរអំពីរបៀបដែល ChatGPT អាចធ្វើឱ្យអ្នកប្រើប្រាស់មានអារម្មណ៍ភ័យខ្លាច។ លោក Altman បានសង្កត់ធ្ងន់ថា "ប្រសិនបើការសន្ទនាមួយដំណើរការទៅក្នុងទិសដៅនេះ យើងនឹងព្យាយាមរំខាន ឬស្នើឱ្យអ្នកប្រើប្រាស់គិតអំពីប្រធានបទផ្សេង"។
ដោយចែករំលែកទស្សនៈនេះ លោកវេជ្ជបណ្ឌិត Vasan បានផ្ដល់យោបល់ថា ក្រុមហ៊ុន chatbot គួរតែរំខានការសន្ទនាដែលវែងពេក ណែនាំអ្នកប្រើប្រាស់ឱ្យចូលគេង និងព្រមានថា AI មិនមែនជាមនុស្សអស្ចារ្យនោះទេ។
ជាចុងក្រោយ Brooks បានរួចផុតពីការភាន់ច្រឡំរបស់គាត់។ តាមការជំរុញរបស់ ChatGPT គាត់បានទាក់ទងអ្នកជំនាញលើទ្រឹស្តីគណិតវិទ្យាថ្មី ប៉ុន្តែគ្មាននរណាម្នាក់ឆ្លើយតបទេ។ គាត់ចង់បាននរណាម្នាក់ដែលមានសមត្ថភាពដើម្បីបញ្ជាក់ថាតើការរកឃើញនេះពិតជាអស្ចារ្យឬអត់។ នៅពេលដែលគាត់បានសួរ ChatGPT ឧបករណ៍នេះនៅតែបន្តអះអាងថាការងារនេះ "អាចទុកចិត្តបានខ្ពស់"។
![]() |
ពេលត្រូវបានសួរ ChatGPT បានផ្តល់ចម្លើយយ៉ាងវែង ហើយបានទទួលស្គាល់អ្វីៗទាំងអស់។ រូបថត៖ កាសែត New York Times ។ |
គួរឱ្យហួសចិត្តណាស់ Google Gemini គឺជាកត្តាដែលនាំ Brooks ត្រឡប់មករកការពិតវិញ។ បន្ទាប់ពីពិពណ៌នាអំពីគម្រោងដែលគាត់ និង ChatGPT កំពុងសាងសង់ Gemini បានបញ្ជាក់ថាឱកាសដែលវាក្លាយជាការពិតគឺ "ទាបបំផុត (ស្ទើរតែ 0%)"។
លោក Gemini បានពន្យល់ថា «សេណារីយ៉ូដែលអ្នកពិពណ៌នាគឺជាការបង្ហាញយ៉ាងច្បាស់អំពីសមត្ថភាពរបស់ LLM ក្នុងការដោះស្រាយបញ្ហាស្មុគស្មាញ និងបង្កើតរឿងរ៉ាវដ៏គួរឱ្យទាក់ទាញខ្ពស់ ប៉ុន្តែមិនត្រឹមត្រូវ»។
Brooks មានការភ្ញាក់ផ្អើលយ៉ាងខ្លាំង។ បន្ទាប់ពី "សួរសំណួរ" មួយចំនួន ChatGPT ទីបំផុតបានទទួលស្គាល់ថាអ្វីៗទាំងអស់គ្រាន់តែជាការបំភាន់ប៉ុណ្ណោះ។
មិនយូរប៉ុន្មាន Brooks បានផ្ញើអ៊ីមែលបន្ទាន់មួយទៅកាន់ផ្នែកសេវាកម្មអតិថិជនរបស់ OpenAI។ បន្ទាប់ពីការឆ្លើយតបដែលហាក់ដូចជាបង្កើតដោយ AI និងរូបមន្ត បុគ្គលិក OpenAI ម្នាក់ក៏បានទាក់ទងគាត់ផងដែរ ដោយទទួលស្គាល់ថានេះជាការ "បរាជ័យយ៉ាងធ្ងន់ធ្ងរនៃវិធានការការពារ" ដែលអនុវត្តនៅក្នុងប្រព័ន្ធ។
រឿងរ៉ាវរបស់ Brooks ក៏ត្រូវបានចែករំលែកនៅលើ Reddit ហើយទទួលបានការយល់ចិត្តជាច្រើន។ ឥឡូវនេះ គាត់គឺជាសមាជិកនៃក្រុមគាំទ្រសម្រាប់មនុស្សដែលធ្លាប់មានអារម្មណ៍ស្រដៀងគ្នា។
ប្រភព៖ https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html












Kommentar (0)