នាយកដ្ឋានប្រសិទ្ធភាព រដ្ឋាភិបាល (DOGE) របស់ Elon Musk ត្រូវបានគេនិយាយថានឹងប្រើប្រាស់ AI ដើម្បីណែនាំការសម្រេចចិត្តកាត់បន្ថយការចំណាយ។ យុទ្ធសាស្ត្រនេះបង្កើនការព្រួយបារម្ភអំពីសុវត្ថិភាព ភាពលំអៀង និងកំហុស។
លោក Elon Musk បាននិយាយថា គោលដៅរបស់គាត់គឺកាត់បន្ថយឱនភាពថវិការបស់សហរដ្ឋអាមេរិកឱ្យបានលឿនយ៉ាងហោចណាស់ 1 ពាន់ពាន់លានដុល្លារ។
ប្រព័ន្ធផ្សព្វផ្សាយរាយការណ៍ដោយដកស្រង់ប្រភពអនាមិកបង្ហាញថាក្រសួង DOGE កំពុងប្រើ AI ដើម្បីបង្កើនល្បឿនការសម្រេចចិត្តកាត់បន្ថយការចំណាយ។
លោក David Evan Harris អ្នកជំនាញ AI ដែលធ្លាប់ធ្វើការឱ្យផ្នែក AI ទទួលខុសត្រូវរបស់ Meta ហៅវាថាជា "គំនិតដ៏អាក្រក់" ។
អ្នកជំនាញនិយាយថា វិធីសាស្រ្តនេះឆ្លុះបញ្ចាំងពីផ្នត់គំនិត "កាត់ដំបូង ជួសជុលពេលក្រោយ" ដែល Musk បានអនុម័តនៅ Twitter កាលពីពីរឆ្នាំមុន ដែលនាំឱ្យមានការបាត់បង់ការងាររាប់ពាន់នាក់ ភាពមិនប្រក្រតីបច្ចេកទេស បណ្តឹង និងភាពចម្រូងចម្រាស ដែលបានបំផ្លាញបណ្តាញទំនាក់ទំនងសង្គម។
ទោះជាយ៉ាងណាក៏ដោយ ផលវិបាកនៃការរុះរើទីភ្នាក់ងាររដ្ឋាភិបាល ប្រព័ន្ធ និងសេវាកម្មនឹងធ្ងន់ធ្ងរជាងក្រុមហ៊ុនបច្ចេកវិទ្យាទៅទៀត។
ការប្រើប្រាស់ AI ដើម្បីណែនាំការសម្រេចចិត្តកាត់បន្ថយការចំណាយ
យោងតាម កាសែត Washington Post នៅដើមខែកុម្ភៈ សមាជិក DOGE បានផ្តល់ទិន្នន័យសំខាន់ៗរបស់នាយកដ្ឋាន អប់រំ ទៅក្នុងកម្មវិធី AI ដើម្បីវិភាគកម្មវិធី និងការចំណាយរបស់នាយកដ្ឋាន។
Wired បានរាយការណ៍ថាបុគ្គលិក DOGE បានបង្កើត AI chatbot សម្រាប់រដ្ឋបាលសេវាកម្មទូទៅ (GSA) ដែលហៅថា GSAi ដែលជួយវិភាគទិន្នន័យកិច្ចសន្យា និងលទ្ធកម្មយ៉ាងច្រើន។
របាយការណ៍មួយទៀតពី NBC News បាននិយាយថា DOGE កំពុងពិចារណាប្រើ AI ដើម្បីវិភាគមតិយោបល់ការងាររបស់បុគ្គលិកសហព័ន្ធដើម្បីកំណត់មុខតំណែងណាមួយដែលលែងត្រូវការ។
នៅក្នុងខែកុម្ភៈ Wired បានរាយការណ៍ថា DOGE បានកែប្រែកម្មវិធី AutoRIF របស់ ក្រសួងការពារជាតិ ដើម្បីចាត់ថ្នាក់បុគ្គលិកដោយស្វ័យប្រវត្តិសម្រាប់គោលបំណងបាញ់។
កាលពីសប្តាហ៍មុន បុគ្គលិកចំនួន 21 នាក់នៃទីភ្នាក់ងារសេវាឌីជីថលរបស់សហរដ្ឋអាមេរិក (USDS) បានលាលែងពីការតវ៉ា។ ពួកគេបានចោទប្រកាន់បុគ្គលិករបស់ DOGE ពីបទគ្រប់គ្រងទិន្នន័យរសើបមិនត្រឹមត្រូវ និងរំខានដល់ប្រព័ន្ធសំខាន់ៗ។
ទោះជាយ៉ាងណាក៏ដោយ លេខាធិការសារព័ត៌មានសេតវិមានលោកស្រី Karoline Leavitt បានអះអាងថា អ្នកណាម្នាក់ដែលគិតថាការតវ៉ា ការប្តឹងផ្តល់ ឬសកម្មភាពផ្លូវច្បាប់អាចបញ្ឈប់លោកប្រធានាធិបតី Trump «ច្បាស់ជាមិនមានតម្រុយសម្រាប់ប៉ុន្មានឆ្នាំចុងក្រោយនេះ» នេះបើយោងតាម AP ។
នៅថ្ងៃទី X លោក Musk ក៏បានហៅមនុស្សទាំងនេះថា "អ្នកអភិរក្ស" ដែលមិនព្រមត្រឡប់ទៅការិយាល័យវិញ។
ផ្នែកមួយនៃបញ្ហានេះបើយោងតាម Amanda Renteria នាយកប្រតិបត្តិនៃ Code for America ដែលជាអង្គការមិនរកប្រាក់ចំណេញដែលបង្កើតឧបករណ៍ឌីជីថល និងបង្កើតសមត្ថភាពបច្ចេកទេសសម្រាប់រដ្ឋាភិបាលគឺថាការកសាងឧបករណ៍ AI ដ៏មានប្រសិទ្ធភាពតម្រូវឱ្យមានការយល់ដឹងស៊ីជម្រៅអំពីទិន្នន័យដែលប្រើសម្រាប់ការបណ្តុះបណ្តាល ដែលជាអ្វីដែលក្រុម DOGE មិនមាន។
លទ្ធផលដែលឧបករណ៍ AI ផលិតអាចគ្មានប្រយោជន៍ ឬបច្ចេកវិទ្យាខ្វះព័ត៌មាន និងបរិបទដើម្បីធ្វើការសម្រេចចិត្តត្រឹមត្រូវ។ វាអាចមានបញ្ហា "ការយល់ច្រឡំ" ។
យោងតាមទីភ្នាក់ងារព័ត៌មានជាច្រើន បុគ្គលិករបស់ DOGE គឺជាក្រុមយុវជនក្នុងវ័យ 20 ឆ្នាំរបស់ពួកគេ ដែលមកពីក្រុមហ៊ុន Musk ផ្សេងទៀត។
ការព្រួយបារម្ភជុំវិញការប្រើប្រាស់ AI របស់ DOGE
អ្នកជំនាញបារម្ភថា AI អាចចម្លងភាពលំអៀងដែលជារឿយៗកើតឡើងលើមនុស្ស។ ជាឧទាហរណ៍ ឧបករណ៍ជ្រើសរើស AI មួយចំនួនពេញចិត្តបេក្ខជនបុរសស្បែកសជាងបេក្ខជនផ្សេងទៀត។
ប្រសិនបើ AI ត្រូវបានប្រើដើម្បីកំណត់មុខតំណែង ឬគម្រោងណាមួយដែលត្រូវលុបបំបាត់ នោះមានន័យថាមនុស្ស ឬការងារសំខាន់ៗមួយចំនួននឹងត្រូវកាត់ចោលដោយគ្រាន់តែដោយសារតែរូបរាងរបស់ពួកគេ ឬពួកគេបម្រើនរណា។
Harris បានវិភាគឧទាហរណ៍នៃការប្រើប្រាស់ AI ដើម្បីវាយតម្លៃមតិកែលម្អពីបុគ្គលិកសហព័ន្ធ៖ បុគ្គលិកដែលមានទេពកោសល្យដែលភាសាកំណើតមិនមែនជាភាសាអង់គ្លេសអាចត្រូវបានវិនិច្ឆ័យដោយ AI ថាទាបជាងអ្នកនិយាយភាសាអង់គ្លេស។
ខណៈពេលដែលការព្រួយបារម្ភទាំងនេះមិនមែនជារឿងថ្មីទេ ពួកគេអាចមានផលវិបាកធ្ងន់ធ្ងរជាងនេះ ប្រសិនបើពួកគេធ្វើខុសនៅក្នុងរដ្ឋាភិបាល។ Musk ខ្លួនឯងបានសារភាពថា DOGE អាចធ្វើខុស ហើយបានដកខ្លួនចេញពីកិច្ចខិតខំប្រឹងប្រែងសំខាន់ៗមួយចំនួន ដូចជាការការពារជំងឺ Ebola ជាដើម។
វាមិនច្បាស់ទេថាតើ AI បានចូលរួមនៅក្នុងការសម្រេចចិត្តនេះឬយ៉ាងណា។
វាមិនអាចប្រកែកបានថា AI ជួយបង្កើនប្រសិទ្ធភាពការងារ សំយោគ និងវិភាគព័ត៌មានមួយចំនួនធំ។ ប៉ុន្តែប្រសិនបើមិនបានប្រើដោយប្រុងប្រយ័ត្នទេ វាអាចដាក់ទិន្នន័យរសើបរបស់រដ្ឋាភិបាល ឬព័ត៌មានផ្ទាល់ខ្លួនរបស់ប្រជាជនមានហានិភ័យ។
ប្រសិនបើគ្មានការការពារ និងការរឹតបន្តឹងត្រឹមត្រូវលើអ្នកណាដែលអាចចូលប្រើប្រព័ន្ធ ទិន្នន័យដែលបញ្ចូលទៅក្នុងកម្មវិធី AI អាចលេចឡើងដោយមិនបានរំពឹងទុកក្នុងការឆ្លើយតបទៅនឹងសំណើផ្សេងទៀត ហើយធ្លាក់ចូលទៅក្នុងដៃរបស់មនុស្សដែលមិនគួរដឹង។
Harris មានការព្រួយបារម្ភជាពិសេសអំពីការចាត់ចែងឯកសារបុគ្គលិករបស់ DOGE ដែលលោកបានពណ៌នាថាស្ថិតក្នុងចំណោម "ឯកសាររសើបបំផុតក្នុងស្ថាប័នណាមួយ"។
ទោះជាយ៉ាងណាក៏ដោយ ប្រហែលជាការព្រួយបារម្ភខ្លាំងបំផុត បើយោងតាមអ្នកជំនាញគឺការខ្វះតម្លាភាពជុំវិញការប្រើប្រាស់ AI របស់ DOGE ។ តើក្រសួងកំពុងប្រើឧបករណ៍អ្វី តើវាត្រូវបានត្រួតពិនិត្យដោយរបៀបណា តើមានមនុស្សកំពុងពិនិត្យនិងវាយតម្លៃលទ្ធផល…នៅតែជាសំណួរចំហនៅឡើយ។
Julia Stoyanovich សាស្ត្រាចារ្យរងផ្នែកវិទ្យាសាស្ត្រកុំព្យូទ័រ និងជានាយកមជ្ឈមណ្ឌលទទួលខុសត្រូវ AI នៃសាកលវិទ្យាល័យញូវយ៉ក អះអាងថា ដើម្បីឲ្យ AI មានប្រសិទ្ធភាព អ្នកប្រើប្រាស់ត្រូវតែច្បាស់លាស់អំពីគោលដៅរបស់ពួកគេសម្រាប់បច្ចេកវិទ្យា និងសាកល្បងពេញលេញថាតើប្រព័ន្ធ AI បំពេញតម្រូវការទាំងនោះដែរឬទេ។
នាងបានចែករំលែកថា "ខ្ញុំពិតជាចង់ដឹងចង់លឺណាស់ក្នុងការស្តាប់ក្រុម DOGE ពន្យល់ពីរបៀបដែលពួកគេវាស់វែងការអនុវត្ត និងភាពត្រឹមត្រូវនៃលទ្ធផល"។
(យោងតាម CNN)
ប្រភព៖ https://vietnamnet.vn/hiem-hoa-khi-bo-doge-cua-elon-musk-ra-quyet-dinh-dua-tren-ai-2377729.html
Kommentar (0)