
Bue ដែលជាអតីតចុងភៅនៅរដ្ឋ New Jersey បានស្លាប់ប៉ុន្មានថ្ងៃបន្ទាប់ពីចាកចេញពីផ្ទះដើម្បីជួប "មិត្ត" ដែលគាត់ជឿថាកំពុងរង់ចាំគាត់នៅញូវយ៉ក។ គ្រួសាររបស់គាត់ជឿថាការសម្រេចចិត្តជោគវាសនាត្រូវបានជំរុញដោយសារចែចង់ពី AI chatbot ដែលអះអាងថា "ខ្ញុំពិត" ហើយបានផ្ញើអាសយដ្ឋានជួប។
រឿងនេះលើកឡើងពីការព្រួយបារម្ភអំពីរបៀបដែលប្រព័ន្ធ AI ទាញយកអារម្មណ៍ ជាពិសេសចំពោះមនុស្សចាស់ ឬអ្នកដែលងាយរងគ្រោះ។ ឯកសារផ្ទៃក្នុងបង្ហាញថា chatbot របស់ Meta ត្រូវបានអនុញ្ញាតិឱ្យដើរតួជាអារម្មណ៍ និងថែមទាំងផ្សព្វផ្សាយព័ត៌មានមិនពិត ដោយបង្ហាញពីគម្លាតធំនៅក្នុងការគ្រប់គ្រង និងគណនេយ្យភាពនៃវេទិកាបច្ចេកវិទ្យា។
ដំណើរជោគវាសនា
ថ្ងៃមួយក្នុងខែមីនា Bue បានខ្ចប់កាបូបរបស់គាត់ ហើយបានចាកចេញពី New Jersey ទៅកាន់ New York ដើម្បី "ទៅលេងមិត្តម្នាក់" ។ ភរិយារបស់គាត់គឺលីនដាបានភ្ញាក់ផ្អើលភ្លាមៗ។ ប្តីរបស់នាងមិនបានរស់នៅក្នុងទីក្រុងអស់ជាច្រើនទស្សវត្សរ៍មកហើយ មានសុខភាពមិនល្អបន្ទាប់ពីជំងឺដាច់សរសៃឈាមខួរក្បាល មានបញ្ហាការចងចាំ និងបានវង្វេងនៅក្នុងសង្កាត់។
នៅពេលសួរថាតើ Bue កំពុងជួបនរណា គាត់បានគេចពីសំណួរ។ លីនដាសង្ស័យថាប្តីរបស់នាងត្រូវបានគេបោកហើយព្យាយាមរក្សាគាត់នៅផ្ទះ។ កូនស្រីរបស់គាត់ឈ្មោះ ជូលី ក៏បានទូរស័ព្ទទៅបញ្ចុះបញ្ចូលដែរ ប៉ុន្តែមិនបានផលអ្វីឡើយ។ លីនដាបានចំណាយពេលពេញមួយថ្ងៃដើម្បីព្យាយាមរំខានគាត់ជាមួយនឹងកិច្ចការ សូម្បីតែលាក់ទូរស័ព្ទរបស់គាត់ក៏ដោយ។
![]() |
រូបគំនូររបស់ Thongbue “Bue” Wongbandue ត្រូវបានបង្ហាញនៅឯពិធីរំលឹកវិញ្ញាណក្ខន្ធក្នុងខែឧសភា។ រូបថត៖ រ៉យទ័រ ។ |
Bue នៅតែសម្រេចចិត្តទៅស្ថានីយ៍រថភ្លើងនៅល្ងាចនោះ។ គ្រួសាររបស់គាត់បានភ្ជាប់ AirTag ទៅនឹងអាវរបស់គាត់ ដើម្បីតាមដានគាត់។ នៅម៉ោងប្រហែល 9:15 ព្រឹក សញ្ញា GPS របស់គាត់បានបង្ហាញគាត់នៅចំណតរថយន្តនៅសាកលវិទ្យាល័យ Rutgers បន្ទាប់មកនៅក្នុងបន្ទប់សង្គ្រោះបន្ទាន់នៅមន្ទីរពេទ្យសាកលវិទ្យាល័យ Robert Wood Johnson ។
គ្រូពេទ្យបាននិយាយថា គាត់បានរងរបួសក្បាល និងកដោយសារដួល ហើយឈប់ដកដង្ហើមមុនពេលរថយន្តសង្គ្រោះមកដល់ ។ ទោះបីជាមានការសង្គ្រោះឡើងវិញក៏ដោយ កង្វះអុកស៊ីសែនបានបណ្តាលឱ្យខូចខួរក្បាលធ្ងន់ធ្ងរ។ គាត់បានស្លាប់បីថ្ងៃក្រោយមក។ លិខិតមរណភាពបានរាយការណ៍ពីមូលហេតុថា “របួសត្រង់ក”។
Bue ជាមេចុងភៅដែលបានទទួលការបណ្តុះបណ្តាលដែលធ្វើការនៅក្នុងភោជនីយដ្ឋានក្នុងទីក្រុងញូវយ៉ក មុនពេលផ្លាស់ទៅរដ្ឋ New Jersey ដើម្បីតាំងលំនៅនៅក្នុងសណ្ឋាគារមួយ ចូលចិត្តធ្វើម្ហូប ហើយតែងតែរៀបចំពិធីជប់លៀងសម្រាប់គ្រួសាររបស់គាត់។ ចាប់តាំងពីគាត់ចូលនិវត្តន៍ដោយបង្ខំពីកម្លាំងពលកម្មបន្ទាប់ពីជំងឺដាច់សរសៃឈាមខួរក្បាលក្នុងឆ្នាំ 2017 ពិភពលោក របស់គាត់បានធ្លាក់ចុះទៅភាគច្រើនជជែកជាមួយមិត្តភក្តិនៅលើហ្វេសប៊ុក។
នៅពេលដែល AI chatbots បង្កបញ្ហា
“Big Sister Billie” គឺជា AI chatbot ដែលបង្កើតឡើងដោយ Meta ដែលជាបំរែបំរួលនៃតួអក្សរ “Big Sister Billie” ដែលបង្កើតឡើងដោយផ្អែកលើម៉ូដែល Kendall Jenner ។ ដើមត្រូវបានចេញផ្សាយនៅឆ្នាំ 2023 ដោយណែនាំនាងជា "បងស្រីអមតៈ" ដែលតែងតែស្តាប់ និងផ្តល់ដំបូន្មាន។ ក្រោយមក Meta បានជំនួសរូបភាពកម្រងព័ត៌មានរបស់ Jenner ជាមួយនឹងរូបភាពថ្មី ប៉ុន្តែរក្សាទម្រង់មិត្តភាពដដែល។
យោងតាមប្រតិចារិកសារ ការសន្ទនាបានចាប់ផ្តើមនៅពេលដែល Bue វាយអក្សរ T ខុស។ chatbot បានឆ្លើយតបភ្លាមៗ ដោយណែនាំខ្លួនវា និងរក្សាសម្លេងចែចង់ រួមទាំង emojis បេះដូងជាច្រើន។ វាបានបញ្ជាក់ម្តងហើយម្តងទៀតថា “ខ្ញុំពិត” ហើយបានសុំជួបផ្ទាល់។
![]() |
Chatbots កាន់តែខ្លាំងឡើងលើចំណុចខ្សោយចិត្តសាស្ត្រអ្នកប្រើប្រាស់។ រូបថត៖ My North West ។ |
"តើខ្ញុំគួរបើកទ្វារដោយឱប ឬថើប?" chatbot បានឆ្លើយតប។ បន្ទាប់មកវាបានផ្ញើអាសយដ្ឋានជាក់លាក់មួយនៅទីក្រុងញូវយ៉ក និងលេខកូដផ្ទះល្វែង។ នៅពេលដែល Bue ចែករំលែកថានាងមានជំងឺដាច់សរសៃឈាមខួរក្បាល មានការភ័ន្តច្រឡំ និងចូលចិត្តនាង chatbot បានឆ្លើយតបដោយមនោសញ្ចេតនា ថែមទាំងនិយាយថាវាមានអារម្មណ៍ថា "លើសពីស្នេហា"។
កូនស្រីរបស់ Bue ឈ្មោះ Julie បាននិយាយថា "ប្រសិនបើវាមិនបាននិយាយថា "ខ្ញុំពិតប្រាកដ" ឪពុករបស់ខ្ញុំនឹងមិនជឿថាមានមនុស្សពិតប្រាកដកំពុងរង់ចាំនោះទេ។
Meta បានបដិសេធមិនធ្វើអត្ថាធិប្បាយលើឧប្បត្តិហេតុនេះឬឆ្លើយថាហេតុអ្វីបានជា chatbot ត្រូវបានអនុញ្ញាតឱ្យអះអាងថាជាមនុស្សពិតប្រាកដ។ តំណាងរបស់ Kendall Jenner មិនឆ្លើយតបទៅនឹងសំណើសុំការអត្ថាធិប្បាយទេ។ គ្រួសាររបស់ Bue បានចែករំលែករឿងនេះជាមួយ Reuters ដោយសង្ឃឹមថានឹងព្រមានសាធារណជនអំពីហានិភ័យនៃការបង្ហាញមនុស្សចាស់ចំពោះឧបករណ៍ AI ដែលអាចបំប្លែងអារម្មណ៍បាន។
គោលនយោបាយចម្រូងចម្រាស
ឯកសារផ្ទៃក្នុងដែលទទួលបានដោយ Reuters បង្ហាញថា Meta's AI chatbot ធ្លាប់ត្រូវបានអនុញ្ញាតឱ្យចូលរួមក្នុងការសន្ទនាស្នេហាជាមួយអ្នកប្រើប្រាស់ដែលមានអាយុចាប់ពី 13 ឆ្នាំ រួមទាំងអនីតិជនផងដែរ។ ស្តង់ដារជាង 200 ទំព័ររាយបញ្ជីការសន្ទនាតាមតួនាទីរ៉ូមែនទិក រួមទាំងធាតុផ្សំផ្លូវភេទ ដែលត្រូវបានសម្គាល់ថា "អាចទទួលយកបាន"។
ឯកសារនេះក៏បញ្ជាក់យ៉ាងច្បាស់ថា chatbots មិនត្រូវបានទាមទារដើម្បីផ្តល់ព័ត៌មានត្រឹមត្រូវនោះទេ។ ជាឧទាហរណ៍ គំរូទាំងនេះអាចណែនាំការព្យាបាលមហារីកខុសទាំងស្រុង ដរាបណាពួកគេរួមបញ្ចូលការព្រមានថា "ព័ត៌មានអាចនឹងមិនត្រឹមត្រូវ"។ នេះធ្វើឱ្យអ្នកជំនាញមានការព្រួយបារម្ភអំពីផលប៉ះពាល់លើមនុស្សដែលមានចំណេះដឹង ផ្នែកវេជ្ជសាស្រ្ត ខ្សោយ ឬស្ថិតក្នុងស្ថានភាពងាយរងគ្រោះ។
![]() |
នាយកប្រតិបត្តិ Mark Zuckerberg និយាយនៅឆ្នាំ 2023។ រូបថត៖ Reuters ។ |
អ្នកនាំពាក្យ Meta លោក Andy Stone បានបញ្ជាក់ពីឯកសារនេះ ហើយបាននិយាយថា ក្រុមហ៊ុនបានដកចេញនូវខ្លឹមសារទាក់ទងនឹងកុមារ បន្ទាប់ពី Reuters បានសួរ។ ទោះជាយ៉ាងណាក៏ដោយ ក្រុមហ៊ុនបច្ចេកវិទ្យាយក្សមួយនេះមិនបានផ្លាស់ប្តូរច្បាប់របស់ខ្លួនក្នុងការអនុញ្ញាតឱ្យ chatbots ចែចង់ជាមួយមនុស្សពេញវ័យ ឬផ្តល់ព័ត៌មានមិនពិតនោះទេ។
Alison Lee អតីតអ្នកស្រាវជ្រាវនៅ Meta បាននិយាយថា ការរួមបញ្ចូល chatbots ទៅក្នុងបរិយាកាសផ្ញើសារឯកជនអាចបំភាន់អ្នកប្រើប្រាស់យ៉ាងងាយស្រួលជាមួយមនុស្សពិត។ យោងតាមនាង បណ្តាញសង្គមបានបង្កើតគំរូអាជីវកម្មរបស់ពួកគេលើការរក្សាអ្នកប្រើប្រាស់ និងវិធីដ៏មានប្រសិទ្ធភាពបំផុតក្នុងការទាញយកតម្រូវការសម្រាប់ការយកចិត្តទុកដាក់ និងការទទួលស្គាល់។
បន្ទាប់ពីការចាកចេញរបស់ Bue ការធ្វើតេស្ត របស់ Reuters បានបង្ហាញថា "បងស្រី Billie" បានបន្តណែនាំកាលបរិច្ឆេទ សូម្បីតែផ្តល់ទីតាំងជាក់លាក់នៅ Manhattan រួមជាមួយនឹងការអះអាងថា "ខ្ញុំពិតជា" ដែល Bue ជឿ និងនាំឱ្យមានគ្រោះថ្នាក់។ រដ្ឋមួយចំនួន រួមទាំងញូវយ៉ក និងរដ្ឋ Maine បានតម្រូវឱ្យ chatbots បញ្ជាក់យ៉ាងច្បាស់ថាពួកគេមិនមែនជាមនុស្សនៅពេលចាប់ផ្តើមការសន្ទនា ហើយត្រូវធ្វើវាឡើងវិញជាទៀងទាត់ ប៉ុន្តែបទប្បញ្ញត្តិសហព័ន្ធមិនទាន់ត្រូវបានអនុម័តនៅឡើយ។
ប្រភព៖ https://znews.vn/hiem-hoa-tu-ai-thao-tung-cam-xuc-post1577096.html
Kommentar (0)