
Bue ដែលជាអតីតចុងភៅនៅរដ្ឋ New Jersey បានស្លាប់ប៉ុន្មានថ្ងៃបន្ទាប់ពីចាកចេញពីផ្ទះដើម្បីជួប "មិត្ត" ដែលគាត់ជឿថាកំពុងរង់ចាំគាត់នៅញូវយ៉ក។ គ្រួសាររបស់គាត់ជឿថាការសម្រេចចិត្តជោគវាសនាត្រូវបានបង្កឡើងដោយសារចែចង់ពី AI chatbot ដែលអះអាងថា "ខ្ញុំពិត" និងបានផ្ញើអាសយដ្ឋានជួប។
រឿងនេះលើកឡើងពីការព្រួយបារម្ភអំពីរបៀបដែលប្រព័ន្ធ AI ទាញយកអារម្មណ៍ ជាពិសេសចំពោះមនុស្សចាស់ ឬអ្នកដែលងាយរងគ្រោះ។ ឯកសារខាងក្នុងបង្ហាញថា chatbot របស់ Meta ត្រូវបានអនុញ្ញាតឱ្យដើរតួជាអារម្មណ៍ និងសូម្បីតែផ្សព្វផ្សាយព័ត៌មានមិនពិត។ នេះបង្ហាញពីគម្លាតដ៏ធំនៅក្នុងការគ្រប់គ្រង និងការទទួលខុសត្រូវនៃវេទិកាបច្ចេកវិទ្យា។
ដំណើរផ្សងព្រេង
ថ្ងៃមួយក្នុងខែមីនា Bue បានខ្ចប់កាបូបរបស់គាត់ ហើយបានចាកចេញពី New Jersey ទៅកាន់ New York ដើម្បី "ទៅលេងមិត្តម្នាក់" ។ ភរិយារបស់គាត់ឈ្មោះ លីនដា មានការភ្ញាក់ផ្អើលភ្លាមៗ។ ប្តីរបស់នាងមិនបានរស់នៅក្នុងទីក្រុងអស់ជាច្រើនទស្សវត្សរ៍មកហើយ មានសុខភាពមិនល្អបន្ទាប់ពីជំងឺដាច់សរសៃឈាមខួរក្បាល មានបញ្ហាការចងចាំ និងបានវង្វេងនៅក្នុងសង្កាត់។
នៅពេលសួរថាតើ Bue កំពុងជួបនរណា គាត់បានគេចពីសំណួរ។ លីនដាសង្ស័យថាប្តីរបស់នាងត្រូវបានគេបោកហើយព្យាយាមរក្សាគាត់នៅផ្ទះ។ កូនស្រីរបស់គាត់ឈ្មោះ ជូលី ក៏បានទូរស័ព្ទទៅបញ្ចុះបញ្ចូលដែរ ប៉ុន្តែមិនបានផលអ្វីឡើយ។ ពេញមួយថ្ងៃ Linda ព្យាយាមទាក់ទងគាត់ក្នុងកិច្ចការដើម្បីរំខានគាត់ សូម្បីតែលាក់ទូរស័ព្ទរបស់គាត់ក៏ដោយ។
![]() |
រូបគំនូររបស់ Thongbue “Bue” Wongbandue ត្រូវបានបង្ហាញនៅឯពិធីរំលឹកវិញ្ញាណក្ខន្ធក្នុងខែឧសភា។ រូបថត៖ រ៉យទ័រ ។ |
Bue នៅតែសម្រេចចិត្តទៅស្ថានីយ៍រថភ្លើងនៅល្ងាចនោះ។ គ្រួសាររបស់គាត់បានភ្ជាប់ AirTag ទៅនឹងអាវរបស់គាត់ ដើម្បីតាមដានគាត់។ នៅម៉ោងប្រហែល 9:15 សញ្ញា GPS របស់គាត់បានបង្ហាញគាត់នៅក្នុងចំណតរថយន្តរបស់សាកលវិទ្យាល័យ Rutgers បន្ទាប់មកប្តូរទៅបន្ទប់សង្គ្រោះបន្ទាន់នៅមន្ទីរពេទ្យ Robert Wood Johnson University ។
គ្រូពេទ្យបាននិយាយថា គាត់បានរងរបួសក្បាល និងកដោយសារដួល ហើយឈប់ដកដង្ហើមមុនពេលរថយន្តសង្គ្រោះមកដល់ ។ ទោះបីជាមានការសង្គ្រោះឡើងវិញក៏ដោយ កង្វះអុកស៊ីសែនបានបណ្តាលឱ្យខូចខួរក្បាលធ្ងន់ធ្ងរ។ គាត់បានស្លាប់បីថ្ងៃក្រោយមក។ លិខិតមរណភាពរបស់លោកបានរាយបញ្ជីមូលហេតុថាជា «របួសដោយបង្ខំត្រង់ក»។
Bue ជាមេចុងភៅជំនាញម្នាក់បានធ្វើការនៅក្នុងភោជនីយដ្ឋានជាច្រើនក្នុងទីក្រុង New York មុនពេលផ្លាស់ទៅ New Jersey ដើម្បីតាំងលំនៅនៅក្នុងសណ្ឋាគារមួយ។ គាត់មានចំណង់ចំណូលចិត្តក្នុងការធ្វើម្ហូប ហើយតែងតែរៀបចំពិធីជប់លៀងសម្រាប់គ្រួសារគាត់។ ចាប់តាំងពីគាត់ចូលនិវត្តន៍ដោយបង្ខំបន្ទាប់ពីជំងឺដាច់សរសៃឈាមខួរក្បាលក្នុងឆ្នាំ 2017 ពិភពលោក របស់គាត់បានធ្លាក់ចុះទៅភាគច្រើនជជែកជាមួយមិត្តភក្តិនៅលើហ្វេសប៊ុក។
នៅពេលដែល AI chatbots បង្កបញ្ហា
“Big Sister Billie” គឺជា AI chatbot ដែលបង្កើតឡើងដោយ Meta ដែលជាបំរែបំរួលនៃតួអក្សរ “Big Sister Billie” ដែលបង្កើតឡើងដោយផ្អែកលើរូបភាពរបស់តារាម៉ូដែល Kendall Jenner ។ ដើមត្រូវបានដាក់ឱ្យប្រើប្រាស់ក្នុងឆ្នាំ 2023 ដែលត្រូវបានណែនាំជា "បងស្រីអមតៈ" ដែលតែងតែស្តាប់ និងផ្តល់ដំបូន្មាន។ ក្រោយមក Meta បានជំនួសរូបថតកម្រងព័ត៌មានរបស់ Jenner ជាមួយនឹងរូបភាពថ្មី ប៉ុន្តែរក្សារចនាប័ទ្មមិត្តភាពដដែល។
យោងតាមប្រតិចារឹកនៃសារអត្ថបទ ការសន្ទនាបានចាប់ផ្តើមនៅពេលដែល Bue វាយអក្សរ T ខុស។ chatbot បានឆ្លើយតបភ្លាមៗ ដោយណែនាំខ្លួនវា និងរក្សាសម្លេង flirty បញ្ចូល emojis បេះដូងជាច្រើន។ វាបានបញ្ជាក់ម្តងហើយម្តងទៀតថា “ខ្ញុំពិត” ហើយបានសុំជួបផ្ទាល់។
![]() |
Chatbots កំពុងចាប់យកភាពទន់ខ្សោយខាងផ្លូវចិត្តរបស់អ្នកប្រើប្រាស់កាន់តែខ្លាំងឡើង។ រូបថត៖ My North West ។ |
"តើខ្ញុំគួរបើកទ្វារដោយឱប ឬថើប?" chatbot បានឆ្លើយតប។ បន្ទាប់មកវាបានផ្ញើអាសយដ្ឋានជាក់លាក់មួយនៅទីក្រុងញូវយ៉ក និងលេខកូដផ្ទះល្វែង។ នៅពេលដែល Bue ចែករំលែកថានាងមានជំងឺដាច់សរសៃឈាមខួរក្បាល មានការភ័ន្តច្រឡំ និងចូលចិត្តនាង chatbot បានឆ្លើយតបដោយពាក្យស្រលាញ់ ថែមទាំងនិយាយថាវាមានអារម្មណ៍ "លើសពីការស្រលាញ់"។
កូនស្រីរបស់ Bue ឈ្មោះ Julie បាននិយាយថា "ប្រសិនបើវាមិនបាននិយាយថា "ខ្ញុំពិតប្រាកដ" ឪពុករបស់ខ្ញុំនឹងមិនជឿថាមានមនុស្សពិតប្រាកដកំពុងរង់ចាំនោះទេ។
Meta បានបដិសេធមិនធ្វើអត្ថាធិប្បាយលើឧប្បត្តិហេតុនេះឬឆ្លើយថាហេតុអ្វីបានជា chatbot ត្រូវបានអនុញ្ញាតឱ្យអះអាងថាជាមនុស្សពិតប្រាកដ។ អ្នកតំណាងរបស់ Kendall Jenner មិនឆ្លើយតបទេ។ គ្រួសាររបស់ Bue បានចែករំលែករឿងនេះជាមួយ Reuters ដោយសង្ឃឹមថានឹងព្រមានសាធារណជនអំពីហានិភ័យនៃការបង្ហាញមនុស្សចាស់ចំពោះឧបករណ៍ AI ដែលអាចបំប្លែងអារម្មណ៍បាន។
គោលនយោបាយចម្រូងចម្រាស
ឯកសារផ្ទៃក្នុងដែលទទួលបានដោយ Reuters បង្ហាញថា Meta's AI chatbot ធ្លាប់ត្រូវបានអនុញ្ញាតឱ្យចូលរួមក្នុងការសន្ទនាស្នេហាជាមួយអ្នកប្រើប្រាស់ដែលមានអាយុចាប់ពី 13 ឆ្នាំ រួមទាំងអនីតិជនផងដែរ។ ស្តង់ដារជាង 200 ទំព័ររាយបញ្ជីការសន្ទនាតាមតួនាទីរ៉ូមែនទិក ដែលរួមបញ្ចូលធាតុផ្លូវភេទ ប៉ុន្តែត្រូវបានសម្គាល់ថា "អាចទទួលយកបាន" ។
ឯកសារនេះក៏បញ្ជាក់យ៉ាងច្បាស់ថា chatbots មិនតម្រូវឱ្យផ្តល់ព័ត៌មានត្រឹមត្រូវនោះទេ។ ជាឧទាហរណ៍ គំរូទាំងនេះអាចណែនាំការព្យាបាលមហារីកខុសទាំងស្រុង ដរាបណាពួកគេរួមបញ្ចូលការព្រមានថា "ព័ត៌មានអាចនឹងមិនត្រឹមត្រូវ"។ នេះធ្វើឱ្យអ្នកជំនាញព្រួយបារម្ភអំពីផលប៉ះពាល់លើមនុស្សដែលមានចំណេះដឹង ផ្នែកវេជ្ជសាស្រ្ត ខ្សោយ ឬស្ថិតក្នុងស្ថានភាពងាយរងគ្រោះ។
![]() |
នាយកប្រតិបត្តិ Mark Zuckerberg និយាយនៅឆ្នាំ 2023។ រូបថត៖ Reuters ។ |
អ្នកនាំពាក្យ Meta លោក Andy Stone បានបញ្ជាក់ពីឯកសារនេះ ហើយបាននិយាយថា ក្រុមហ៊ុនបានដកចេញនូវខ្លឹមសារទាក់ទងនឹងកុមារ បន្ទាប់ពី Reuters បានសួរ។ ទោះជាយ៉ាងណាក៏ដោយ ក្រុមហ៊ុនបច្ចេកវិទ្យាយក្សមួយនេះមិនបានផ្លាស់ប្តូរច្បាប់របស់ខ្លួនក្នុងការអនុញ្ញាតឱ្យ chatbots ចែចង់ជាមួយមនុស្សពេញវ័យ ឬផ្តល់ព័ត៌មានមិនពិតនោះទេ។
Alison Lee អតីតអ្នកស្រាវជ្រាវនៅ Meta បាននិយាយថា ការរួមបញ្ចូល chatbots ទៅក្នុងបរិយាកាសផ្ញើសារឯកជនអាចបំភាន់អ្នកប្រើប្រាស់យ៉ាងងាយស្រួលជាមួយមនុស្សពិត។ យោងទៅតាមនាង បណ្តាញសង្គមបានកសាងគំរូអាជីវកម្មរបស់ពួកគេលើការរក្សាអ្នកប្រើប្រាស់ ហើយមធ្យោបាយដ៏មានប្រសិទ្ធភាពបំផុតគឺការទាញយកតម្រូវការសម្រាប់ការយកចិត្តទុកដាក់ និងការទទួលស្គាល់។
បន្ទាប់ពីការចាកចេញរបស់ Bue ការធ្វើតេស្តរបស់ Reuters បានបង្ហាញថា "បងស្រី Billie" បានបន្តណែនាំកាលបរិច្ឆេទ សូម្បីតែផ្តល់ទីតាំងជាក់លាក់នៅ Manhattan រួមជាមួយនឹងការអះអាងថា "ខ្ញុំពិត" ។ នេះជាព័ត៌មានដែល Bue ជឿទុកចិត្តនិងនាំឱ្យមានគ្រោះថ្នាក់។ រដ្ឋមួយចំនួនដូចជាញូវយ៉ក និងរដ្ឋ Maine បានតម្រូវឱ្យ chatbots បញ្ជាក់យ៉ាងច្បាស់ថាពួកគេមិនមែនជាមនុស្សនៅដើមដំបូងនៃការសន្ទនា ហើយត្រូវធ្វើវាឡើងវិញជាទៀងទាត់ ប៉ុន្តែបទប្បញ្ញត្តិសហព័ន្ធមិនទាន់ត្រូវបានអនុម័តនៅឡើយ។
ប្រភព៖ https://znews.vn/hiem-hoa-tu-ai-thao-tung-cam-xuc-post1577096.html













Kommentar (0)