Vietnam.vn - Nền tảng quảng bá Việt Nam

ការគំរាមកំហែងនៃ «មនុស្សយន្តឃាតករ AI» កំពុងធ្វើឱ្យសន្តិសុខពិភពលោកตกอยู่ในอันตราย។

Công LuậnCông Luận20/07/2024

[ការផ្សាយពាណិជ្ជកម្ម_1]

រូបភាពស្មុគស្មាញនៃការប្រើប្រាស់មនុស្សយន្តឃាតករ AI។

ការអនុញ្ញាតឱ្យបញ្ញាសិប្បនិម្មិត (AI) គ្រប់គ្រងប្រព័ន្ធអាវុធអាចមានន័យថាគោលដៅត្រូវបានកំណត់អត្តសញ្ញាណ វាយប្រហារ និងបំផ្លាញចោលដោយគ្មានអន្តរាគមន៍ពីមនុស្ស។ នេះបង្កើនសំណួរផ្លូវច្បាប់ និងសីលធម៌ធ្ងន់ធ្ងរ។

ដោយសង្កត់ធ្ងន់លើភាពធ្ងន់ធ្ងរនៃស្ថានភាពនេះ រដ្ឋមន្ត្រីការបរទេស អូទ្រីស លោក Alexander Schallenberg បានថ្លែងថា “នេះគឺជាពេលវេលា Oppenheimer ជំនាន់យើង”។

ការគំរាមកំហែងពីមនុស្សយន្តឃាតករកំពុងបង្កការគំរាមកំហែងដល់សន្តិសុខសកល (រូបភាពទី 1)។

មនុស្សយន្ត និងអាវុធដែលដំណើរការដោយបញ្ញាសិប្បនិម្មិតកំពុងចាប់ផ្តើមត្រូវបានប្រើប្រាស់យ៉ាងទូលំទូលាយនៅក្នុងយោធានៃប្រទេសជាច្រើន។ រូបថត៖ Forbes

ជាការពិតណាស់ កម្រិតដែល «ទេវតាបានរត់គេចពីពាង» បានក្លាយជាសំណួរដ៏សំខាន់មួយ ដោយសារតែការប្រើប្រាស់យន្តហោះគ្មានមនុស្សបើក និងបញ្ញាសិប្បនិម្មិត (AI) យ៉ាងទូលំទូលាយដោយយោធានៅជុំវិញ ពិភពលោក

លោក Wilson Jones អ្នកវិភាគផ្នែកការពារជាតិរបស់ GlobalData បានចែករំលែកថា៖ «ការប្រើប្រាស់យន្តហោះគ្មានមនុស្សបើកដោយរុស្ស៊ី និងអ៊ុយក្រែនក្នុងជម្លោះសម័យទំនើប ការប្រើប្រាស់យន្តហោះគ្មានមនុស្សបើករបស់សហរដ្ឋអាមេរិកក្នុងប្រតិបត្តិការវាយប្រហារគោលដៅនៅក្នុងប្រទេសអាហ្វហ្គានីស្ថាន និងប៉ាគីស្ថាន និងដូចដែលបានបង្ហាញថ្មីៗនេះកាលពីខែមុន ក្នុងនាមជាផ្នែកមួយនៃកម្មវិធី Lavender របស់អ៊ីស្រាអែល បង្ហាញពីរបៀបដែលសមត្ថភាពដំណើរការព័ត៌មានរបស់ AI ត្រូវបានប្រើប្រាស់យ៉ាងសកម្មដោយយោធាពិភពលោកដើម្បីបង្កើនអំណាចវាយលុករបស់ពួកគេ»។

ការស៊ើបអង្កេតដោយការិយាល័យស៊ើបអង្កេតសង្គ្រាមដែលមានមូលដ្ឋាននៅទីក្រុងឡុងដ៍បានរកឃើញថា ប្រព័ន្ធបញ្ញាសិប្បនិម្មិត Lavender របស់យោធាអ៊ីស្រាអែលមានអត្រាភាពត្រឹមត្រូវ 90% ក្នុងការកំណត់អត្តសញ្ញាណបុគ្គលដែលមានទំនាក់ទំនងជាមួយហាម៉ាស មានន័យថា 10% មិនមាន។ នេះបានបណ្តាលឱ្យមានអ្នកស្លាប់និងរបួសដោយសារសមត្ថភាពកំណត់អត្តសញ្ញាណនិងការសម្រេចចិត្តរបស់បញ្ញាសិប្បនិម្មិត។

ជាការគំរាមកំហែងដល់សន្តិសុខពិភពលោក។

ការប្រើប្រាស់ AI តាមរបៀបនេះគូសបញ្ជាក់ពីតម្រូវការសម្រាប់ការគ្រប់គ្រងបច្ចេកវិទ្យានៅក្នុងប្រព័ន្ធអាវុធ។

លោកវេជ្ជបណ្ឌិត Alexander Blanchard អ្នកស្រាវជ្រាវជាន់ខ្ពស់ក្នុងកម្មវិធីគ្រប់គ្រងបញ្ញាសិប្បនិម្មិតនៅវិទ្យាស្ថានស្រាវជ្រាវ សន្តិភាព អន្តរជាតិស្តុកហូម (SIPRI) ដែលជាក្រុមស្រាវជ្រាវឯករាជ្យមួយដែលផ្តោតលើសន្តិសុខសកល បានពន្យល់ទៅកាន់ Army Technology ថា “ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិតនៅក្នុងប្រព័ន្ធអាវុធ ជាពិសេសនៅពេលប្រើសម្រាប់កំណត់គោលដៅ បង្កើនសំណួរជាមូលដ្ឋានអំពីអ្នកដែលយើងជា - មនុស្ស - និងទំនាក់ទំនងរបស់យើងជាមួយសង្គ្រាម និងជាពិសេស ការសន្មត់របស់យើងអំពីរបៀបដែលយើងអាចប្រើអំពើហិង្សាក្នុងជម្លោះប្រដាប់អាវុធ”។

មនុស្សយន្តឃាតករថ្មីនេះកំពុងគំរាមកំហែងដល់សន្តិសុខពិភពលោក (រូបភាពទី 2)។

នៅពេលប្រើប្រាស់ក្នុងបរិយាកាសច្របូកច្របល់ ប្រព័ន្ធ AI អាចដំណើរការដោយមិនអាចទាយទុកជាមុនបាន ហើយអាចមិនអាចកំណត់អត្តសញ្ញាណគោលដៅបានត្រឹមត្រូវ។ (រូបភាព៖ MES)

លោកវេជ្ជបណ្ឌិត Blanchard បានបន្ថែមថា «តើ AI នឹងផ្លាស់ប្តូររបៀបដែលយោធាជ្រើសរើសគោលដៅ និងអនុវត្តកម្លាំងទៅលើពួកគេដែរឬទេ? ការផ្លាស់ប្តូរទាំងនេះ ជាថ្នូរនឹងការលើកឡើងនូវសំណួរផ្នែកច្បាប់ សីលធម៌ និងប្រតិបត្តិការជាច្រើន។ ក្តីបារម្ភធំបំផុតគឺមនុស្សធម៌»។

អ្នកជំនាញ SIPRI បានពន្យល់ថា “មនុស្សជាច្រើនមានការព្រួយបារម្ភថា អាស្រ័យលើរបៀបដែលប្រព័ន្ធស្វ័យប្រវត្តិត្រូវបានរចនា និងប្រើប្រាស់ ពួកវាអាចធ្វើឱ្យជនស៊ីវិល និងអ្នកដទៃទៀតដែលត្រូវបានការពារដោយច្បាប់អន្តរជាតិប្រឈមនឹងហានិភ័យខ្ពស់នៃគ្រោះថ្នាក់។ នេះដោយសារតែប្រព័ន្ធ AI ជាពិសេសនៅពេលប្រើប្រាស់ក្នុងបរិយាកាសវឹកវរ អាចដំណើរការដោយមិនអាចទាយទុកជាមុនបាន ហើយអាចបរាជ័យក្នុងការកំណត់អត្តសញ្ញាណគោលដៅ និងវាយប្រហារជនស៊ីវិលបានយ៉ាងត្រឹមត្រូវ ឬបរាជ័យក្នុងការកំណត់អត្តសញ្ញាណអ្នកប្រយុទ្ធដែលនៅក្រៅខ្សែបន្ទាត់បាញ់”។

ដោយ​ពន្យល់​អំពី​បញ្ហា​នេះ លោក Wilson Jones អ្នកវិភាគ​ផ្នែក​ការពារ​ជាតិ​របស់ GlobalData បាន​កត់សម្គាល់​ថា សំណួរ​អំពី​របៀប​ដែល​កំណត់​ពី​កំហុស​អាច​នឹង​ត្រូវ​បាន​សួរ​ឡើង។

លោក Jones បានមានប្រសាសន៍ថា «ក្រោមច្បាប់សង្គ្រាមបច្ចុប្បន្ន មានគោលគំនិតនៃការទទួលខុសត្រូវក្នុងការបញ្ជា»។ «នេះមានន័យថា មន្ត្រី ឧត្តមសេនីយ៍ ឬមេដឹកនាំផ្សេងទៀត ទទួលខុសត្រូវតាមផ្លូវច្បាប់ចំពោះសកម្មភាពរបស់កងទ័ពក្រោមបញ្ជារបស់ពួកគេ។ ប្រសិនបើកងទ័ពប្រព្រឹត្តបទឧក្រិដ្ឋសង្គ្រាម មន្ត្រីនោះត្រូវទទួលខុសត្រូវ ទោះបីជាពួកគេមិនបានចេញបញ្ជាក៏ដោយ។ បន្ទុកនៃភស្តុតាងស្ថិតនៅលើពួកគេ ដោយបង្ហាញថាពួកគេបានធ្វើអ្វីគ្រប់យ៉ាងដែលអាចធ្វើទៅបានដើម្បីទប់ស្កាត់បទឧក្រិដ្ឋសង្គ្រាម»។

លោក Jones បានសង្កត់ធ្ងន់ថា «ជាមួយនឹងប្រព័ន្ធ AI នេះធ្វើឱ្យរឿងស្មុគស្មាញ។ តើអ្នកបច្ចេកទេស IT ទទួលខុសត្រូវទេ? ជាអ្នករចនាប្រព័ន្ធ? វាមិនច្បាស់លាស់ទេ។ ប្រសិនបើវាមិនច្បាស់លាស់ទេ នោះវាបង្កើតគ្រោះថ្នាក់ខាងសីលធម៌ ប្រសិនបើអ្នកដើរតួគិតថាសកម្មភាពរបស់ពួកគេមិនត្រូវបានការពារដោយច្បាប់ដែលមានស្រាប់»។

មនុស្សយន្តឃាតករថ្មីនេះកំពុងគំរាមកំហែងដល់សន្តិសុខពិភពលោក (រូបភាពទី 3)។

ទាហានអាមេរិកម្នាក់កំពុងល្បាតជាមួយឆ្កែរ៉ូបូត។ រូបថត៖ Forbes

អនុសញ្ញាគ្រប់គ្រងអាវុធ៖ កិច្ចព្រមព្រៀងអន្តរជាតិសំខាន់ៗមួយចំនួនរឹតត្បិត និងគ្រប់គ្រងការប្រើប្រាស់អាវុធមួយចំនួន។ ទាំងនេះរួមមាន ការហាមឃាត់អាវុធគីមី សន្ធិសញ្ញាមិនរីកសាយភាយអាវុធនុយក្លេអ៊ែរ និងអនុសញ្ញាស្តីពីអាវុធធម្មតាមួយចំនួន ដែលហាមឃាត់ ឬរឹតត្បិតការប្រើប្រាស់អាវុធជាក់លាក់ដែលត្រូវបានចាត់ទុកថាបង្កការឈឺចាប់ដែលមិនចាំបាច់ ឬមិនអាចប្រកែកបានចំពោះយុទ្ធជន ឬប៉ះពាល់ដល់ជនស៊ីវិលដោយមិនរើសអើង។

លោក Wilson Jones អ្នកវិភាគការពារជាតិបានពន្យល់ថា «ការគ្រប់គ្រងអាវុធនុយក្លេអ៊ែរតម្រូវឱ្យមានកិច្ចសហប្រតិបត្តិការអន្តរជាតិរាប់ទសវត្សរ៍ និងសន្ធិសញ្ញាជាបន្តបន្ទាប់ដើម្បីអាចអនុវត្តបាន»។ «សូម្បីតែពេលនោះក៏ដោយ យើងបានបន្តការធ្វើតេស្តបរិយាកាសរហូតដល់ទសវត្សរ៍ឆ្នាំ 1990។ ហេតុផលចម្បងមួយសម្រាប់ភាពជោគជ័យនៃការមិនរីកសាយអាវុធនុយក្លេអ៊ែរគឺកិច្ចសហប្រតិបត្តិការរវាងសហរដ្ឋអាមេរិក និងសហភាពសូវៀតក្នុងសណ្តាប់ធ្នាប់ពិភពលោកបាយប៉ូឡា។ នោះលែងមានទៀតហើយ ហើយបច្ចេកវិទ្យា AI បានក្លាយជាអាចចូលដំណើរការបានកាន់តែច្រើនសម្រាប់ប្រទេសជាច្រើនជាងថាមពលអាតូមិក»។

«សន្ធិសញ្ញាដែលមានកាតព្វកិច្ចមួយ នឹងត្រូវនាំភាគីពាក់ព័ន្ធទាំងអស់មកតុចរចា ដើម្បីយល់ព្រមមិនប្រើប្រាស់ឧបករណ៍ដែលបង្កើនអំណាចយោធារបស់ពួកគេ។ នោះទំនងជាមិនមានប្រសិទ្ធភាពទេ ពីព្រោះបញ្ញាសិប្បនិម្មិត (AI) អាចបង្កើនប្រសិទ្ធភាពយោធាជាមួយនឹងការចំណាយហិរញ្ញវត្ថុ និងសម្ភារៈតិចតួចបំផុត»។

ទស្សនៈភូមិសាស្ត្រនយោបាយបច្ចុប្បន្ន

ទោះបីជាប្រទេសនានានៅអង្គការសហប្រជាជាតិបានទទួលស្គាល់ពីតម្រូវការសម្រាប់ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត (AI) ដោយមានការទទួលខុសត្រូវដោយយោធាក៏ដោយ ក៏នៅតែមានការងារជាច្រើនដែលត្រូវធ្វើ។

លោកស្រី Laura Petrone អ្នកវិភាគសំខាន់នៅ GlobalData បានប្រាប់ Army Technology ថា “ដោយសារតែខ្វះក្របខ័ណ្ឌគ្រប់គ្រងច្បាស់លាស់ សេចក្តីថ្លែងការណ៍ទាំងនេះនៅតែមានមហិច្ឆតាខ្ពស់។ វាមិនមែនជារឿងគួរឱ្យភ្ញាក់ផ្អើលទេដែលប្រទេសមួយចំនួនចង់រក្សាអធិបតេយ្យភាពរបស់ខ្លួននៅពេលសម្រេចចិត្តលើបញ្ហាការពារជាតិ និងសន្តិសុខជាតិ ជាពិសេសនៅក្នុងបរិបទនៃភាពតានតឹងភូមិសាស្ត្រនយោបាយបច្ចុប្បន្ន”។

លោកស្រី Petrone បានបន្ថែមថា ខណៈពេលដែលច្បាប់ AI របស់សហភាពអឺរ៉ុបកំណត់តម្រូវការមួយចំនួនសម្រាប់ប្រព័ន្ធ AI វាមិនដោះស្រាយប្រព័ន្ធ AI សម្រាប់គោលបំណងយោធានោះទេ។

លោកស្រី​បាន​អត្ថាធិប្បាយ​ថា «ខ្ញុំ​គិត​ថា បើ​ទោះ​ជា​មាន​ការ​ដក​ចេញ​នេះ​ក៏​ដោយ ច្បាប់ AI គឺជា​កិច្ច​ខិតខំ​ប្រឹងប្រែង​ដ៏​សំខាន់​មួយ​ដើម្បី​បង្កើត​ក្របខ័ណ្ឌ​ដែល​មាន​រយៈពេល​យូរ​សម្រាប់​កម្មវិធី AI ដែល​អាច​នាំ​ទៅ​ដល់​កម្រិត​ជាក់លាក់​មួយ​នៃ​ការ​ចុះ​សម្រុង​គ្នា​នៃ​ស្តង់ដារ​ពាក់ព័ន្ធ​នា​ពេល​អនាគត»។ «ការ​ចុះ​សម្រុង​គ្នា​នេះ​ក៏​នឹង​មាន​សារៈសំខាន់​សម្រាប់ AI ក្នុង​វិស័យ​យោធា​ផង​ដែរ»។

ង្វៀន ខាញ់


[ការផ្សាយពាណិជ្ជកម្ម_២]
ប្រភព៖ https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html

Kommentar (0)

សូមអធិប្បាយដើម្បីចែករំលែកអារម្មណ៍របស់អ្នក!

ប្រធានបទដូចគ្នា

ប្រភេទដូចគ្នា

សូមរីករាយជាមួយដំណើរកម្សាន្តពេលយប់ដ៏រំភើបនៃទីក្រុងហូជីមិញ។
ទិដ្ឋភាព​ជិត​នៃ​សិក្ខាសាលា​ផលិត​ផ្កាយ LED សម្រាប់​វិហារ Notre Dame។
ផ្កាយណូអែលកម្ពស់ ៨ ម៉ែត្រដែលបំភ្លឺវិហារ Notre Dame ក្នុងទីក្រុងហូជីមិញ គឺពិតជាគួរឱ្យចាប់អារម្មណ៍ជាពិសេស។
ហ៊ុយញ៉ូ បានបង្កើតប្រវត្តិសាស្ត្រនៅស៊ីហ្គេម៖ កំណត់ត្រាមួយដែលពិបាកបំបែកណាស់។

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

ដំណើរកម្សាន្តទៅទស្សនាបង្គោលភ្លើងហ្វារឡុងចូវ

ព្រឹត្តិការណ៍បច្ចុប្បន្ន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល