គ្រោះថ្នាក់នៃការបាត់បង់ការគ្រប់គ្រងរបស់ AI
មនុស្សជាតិហាក់ដូចជាព្រងើយកន្តើយនឹងទិដ្ឋភាពនៅលើផ្តេក។ វាគឺជាទស្សនីយភាពនៃសង្គ្រាមនុយក្លេអ៊ែរសកល ដែលបង្កឡើងដោយបញ្ញាសិប្បនិម្មិត (AI)។ អគ្គលេខាធិការអង្គការសហប្រជាជាតិ លោក Antonio Guterres បានព្រមានអំពីរឿងនេះ។ ប៉ុន្តែរហូតមកដល់ពេលនេះ រដ្ឋប្រដាប់អាវុធនុយក្លេអ៊ែរមិនបានមករួមគ្នាដើម្បីចរចាការគំរាមកំហែងមហន្តរាយនេះទេ។
ការអភិវឌ្ឍន៍យ៉ាងឆាប់រហ័សនៃបញ្ញាសិប្បនិម្មិត (AI) បង្កហានិភ័យដែល AI អាចធ្វើអន្តរាគមន៍ក្នុងដំណើរការបាញ់បង្ហោះអាវុធនុយក្លេអ៊ែរ។ រូបថតគំនូរ
មានការឯកភាពក្រៅផ្លូវការជាយូរយារណាស់មកហើយក្នុងចំណោមមហាអំណាចនុយក្លេអ៊ែរធំៗទាំងប្រាំ គឺសហរដ្ឋអាមេរិក រុស្ស៊ី ចិន ចក្រភពអង់គ្លេស និងបារាំង - លើគោលការណ៍ "មនុស្សនៅក្នុងរង្វង់" មានន័យថា ប្រទេសនីមួយៗមានប្រព័ន្ធដើម្បីធានាថាមនុស្សចូលរួមនៅក្នុងការសម្រេចចិត្តបាញ់អាវុធនុយក្លេអ៊ែរ។
គ្មាននរណាម្នាក់ក្នុងចំណោមមហាអំណាចទាំងប្រាំនិយាយថាពួកគេបានដាក់ពង្រាយ AI នៅក្នុងប្រព័ន្ធបញ្ជាការបាញ់នុយក្លេអ៊ែររបស់ពួកគេ។ នេះជាការពិត ប៉ុន្តែជាការបំភាន់ នេះបើតាមលោកវេជ្ជបណ្ឌិត Sundeep Waslekar ប្រធានក្រុម Strategic Foresight ដែលជាអង្គការស្រាវជ្រាវអន្តរជាតិនៅទីក្រុង Mumbai ប្រទេសឥណ្ឌា។
AI កំពុងត្រូវបានប្រើប្រាស់សម្រាប់ការរកឃើញការគំរាមកំហែង និងការជ្រើសរើសគោលដៅ។ ប្រព័ន្ធដែលដំណើរការដោយ AI វិភាគទិន្នន័យយ៉ាងច្រើនពីឧបករណ៍ចាប់សញ្ញា ផ្កាយរណប និងរ៉ាដាក្នុងពេលវេលាជាក់ស្តែង វិភាគការវាយប្រហារដោយមីស៊ីលដែលចូលមក និងណែនាំជម្រើសឆ្លើយតប។
បន្ទាប់មក ប្រតិបត្តិករឆ្លងកាត់ការត្រួតពិនិត្យការគំរាមកំហែងពីប្រភពផ្សេងៗគ្នា ហើយសម្រេចចិត្តថាតើត្រូវស្ទាក់ចាប់មីស៊ីលរបស់សត្រូវ ឬបើកការវាយប្រហារសងសឹក។
លោក Sundeep Waslekar មានប្រសាសន៍ថា "បច្ចុប្បន្ន ពេលវេលាឆ្លើយតបដែលមានសម្រាប់ប្រតិបត្តិករគឺពី 10 ទៅ 15 នាទី ហើយនៅឆ្នាំ 2030 វានឹងកាត់បន្ថយមកត្រឹម 5 ទៅ 7 នាទី" ។ "ខណៈពេលដែលមនុស្សនឹងធ្វើការសម្រេចចិត្តចុងក្រោយ ពួកគេនឹងត្រូវបានជះឥទ្ធិពលដោយការព្យាករណ៍ និងការវិភាគតាមវេជ្ជបញ្ជារបស់ AI ។ AI អាចជាកម្លាំងជំរុញនៅពីក្រោយការសម្រេចចិត្តចាប់ផ្តើមនៅដើមទសវត្សរ៍ឆ្នាំ 2030"។
បញ្ហាគឺថា AI អាចខុស។ ក្បួនដោះស្រាយការរកឃើញការគំរាមកំហែងអាចបង្ហាញពីការវាយប្រហារដោយកាំជ្រួច នៅពេលដែលមិនមានអ្វីកើតឡើង។ នេះអាចបណ្តាលមកពីកំហុសកុំព្យូទ័រ ការឈ្លានពានបណ្តាញ ឬកត្តាបរិស្ថានដែលបិទបាំងសញ្ញា។ លុះត្រាតែប្រតិបត្តិកររបស់មនុស្សមិនអាចបញ្ជាក់ការជូនដំណឹងមិនពិតពីប្រភពផ្សេងទៀតក្នុងរយៈពេលពី 2 ទៅ 3 នាទី ពួកគេអាចបង្កឱ្យមានការវាយប្រហារសងសឹក។
កំហុសតូចតាច គ្រោះមហន្តរាយដ៏ធំ
ការប្រើប្រាស់ AI នៅក្នុងមុខងារស៊ីវិលជាច្រើនដូចជា ការទស្សន៍ទាយឧក្រិដ្ឋកម្ម ការសម្គាល់មុខ និងការព្យាករណ៍នៃជំងឺមហារីក ត្រូវបានគេដឹងថាមានកំហុស 10% ។ នៅក្នុងប្រព័ន្ធប្រកាសអាសន្ននុយក្លេអ៊ែរ រឹមនៃកំហុសអាចមានប្រហែល 5% នេះបើយោងតាមលោក Sundeep Waslekar ។
ដោយសារភាពត្រឹមត្រូវនៃក្បួនដោះស្រាយការទទួលស្គាល់រូបភាពមានភាពប្រសើរឡើងក្នុងទសវត្សរ៍ក្រោយ រឹមនៃកំហុសនេះអាចធ្លាក់ចុះមកត្រឹម 1-2% ។ ប៉ុន្តែសូម្បីតែរឹម 1% នៃកំហុសអាចចាប់ផ្តើមសង្គ្រាមនុយក្លេអ៊ែរសកល។
ការសម្រេចចិត្តបើកការវាយប្រហារនុយក្លេអ៊ែរ ឬការសងសឹកអាចបណ្តាលមកពីកំហុស AI ។ រូបថត៖ វិទ្យាស្ថានសង្គ្រាមទំនើប
ហានិភ័យអាចកើនឡើងក្នុងរយៈពេល 2 ទៅ 3 ឆ្នាំខាងមុខ ដោយសារមេរោគថ្មីលេចចេញ ដែលអាចជៀសផុតពីប្រព័ន្ធស្វែងរកការគំរាមកំហែង។ មេរោគនេះនឹងសម្របខ្លួនដើម្បីជៀសវាងការរកឃើញ កំណត់អត្តសញ្ញាណគោលដៅដោយស្វ័យប្រវត្តិ និងវាយប្រហារពួកវាដោយស្វ័យប្រវត្តិ។
មានស្ថានភាព "ភាពច្របូកច្របល់" ជាច្រើនក្នុងកំឡុងសង្គ្រាមត្រជាក់។ នៅឆ្នាំ 1983 ផ្កាយរណបសូវៀតបានយល់ច្រឡំថាកាំជ្រួចចំនួន 5 ដែលត្រូវបានបាញ់ដោយសហរដ្ឋអាមេរិក។ Stanislaw Petrov មន្ត្រីនៅមជ្ឈមណ្ឌលបញ្ជា Sepukhov-15 របស់រុស្ស៊ី បានសន្និដ្ឋានថា វាជាការជូនដំណឹងមិនពិត ហើយមិនបានជូនដំណឹងដល់ថ្នាក់លើរបស់គាត់ ដូច្នេះពួកគេអាចចាប់ផ្តើមការវាយប្រហារតបតវិញ។
នៅឆ្នាំ 1995 ស្ថានីយ៍រ៉ាដា Olenegorsk បានរកឃើញការវាយប្រហារដោយកាំជ្រួចនៅឆ្នេរសមុទ្រនៃប្រទេសន័រវេស។ កងកម្លាំងយុទ្ធសាស្ត្ររបស់រុស្ស៊ីត្រូវបានដាក់ឱ្យមានការប្រុងប្រយ័ត្នខ្ពស់ ហើយនៅពេលនោះ ប្រធានាធិបតីរុស្ស៊ី Boris Yeltsin ត្រូវបានប្រគល់កាបូបនុយក្លេអ៊ែរ។ គាត់សង្ស័យថាវាជាកំហុស ហើយមិនបានចុចប៊ូតុង។ វាបានក្លាយជាកាំជ្រួច វិទ្យាសាស្ត្រ ។ ប្រសិនបើ AI ត្រូវបានប្រើប្រាស់ដើម្បីកំណត់ការឆ្លើយតបក្នុងស្ថានភាពណាមួយនោះ លទ្ធផលអាចជាមហន្តរាយ។
មីស៊ីល Hypersonic សព្វថ្ងៃប្រើស្វ័យប្រវត្តិកម្មធម្មតា ជាជាង AI ។ ពួកគេអាចធ្វើដំណើរក្នុងល្បឿនចាប់ពី Mach 5 ដល់ Mach 25 ដោយគេចពីការចាប់រ៉ាដា និងគ្រប់គ្រងផ្លូវហោះហើររបស់ពួកគេ។ មហាអំណាចគ្រោងនឹងពង្រឹងកាំជ្រួចដែលមានល្បឿនលឿនជាងសំឡេងជាមួយ AI ដើម្បីកំណត់ទីតាំង និងកម្ទេចគោលដៅដែលផ្លាស់ទីភ្លាមៗ ដោយផ្លាស់ប្តូរការសម្រេចចិត្តសម្លាប់ពីមនុស្សទៅម៉ាស៊ីន។
វាក៏មានការប្រណាំងដើម្បីបង្កើតបញ្ញាសិប្បនិម្មិតទូទៅ ដែលអាចនាំទៅរកគំរូ AI ដែលដំណើរការលើសពីការគ្រប់គ្រងរបស់មនុស្ស។ នៅពេលដែលវាកើតឡើង ប្រព័ន្ធ AI នឹងរៀនពង្រឹង និងចម្លងខ្លួនឯង ដោយទទួលយកដំណើរការធ្វើការសម្រេចចិត្ត។ ប្រសិនបើ AI បែបនេះត្រូវបានដាក់បញ្ចូលទៅក្នុងប្រព័ន្ធគាំទ្រការសម្រេចចិត្តសម្រាប់អាវុធនុយក្លេអ៊ែរ នោះម៉ាស៊ីននឹងអាចចាប់ផ្តើមសង្គ្រាមបំផ្លិចបំផ្លាញបាន។
ពេលវេលាដើម្បីធ្វើសកម្មភាព
ប្រឈមមុខនឹងហានិភ័យខាងលើ អ្នកជំនាញជាច្រើនជឿថា មនុស្សជាតិត្រូវការកិច្ចព្រមព្រៀងទូលំទូលាយរវាងមហាអំណាចធំៗ ដើម្បីកាត់បន្ថយហានិភ័យនៃសង្គ្រាមនុយក្លេអ៊ែរ ដែលលើសពីការនិយាយឡើងវិញនូវពាក្យស្លោក "មនុស្សនៅក្នុងរង្វិលជុំ" ។
កិច្ចព្រមព្រៀងនេះគួរតែរួមបញ្ចូលនូវវិធានការតម្លាភាព គណនេយ្យភាព និងកិច្ចសហប្រតិបត្តិការ។ ស្តង់ដារអន្តរជាតិសម្រាប់ការធ្វើតេស្ត និងការវាយតម្លៃ; បណ្តាញទំនាក់ទំនងវិបត្តិ; ក្រុមប្រឹក្សាជាតិត្រួតពិនិត្យ; និងច្បាប់ដើម្បីហាមឃាត់គំរូ AI ឈ្លានពានដែលមានសមត្ថភាពឆ្លងកាត់ប្រតិបត្តិកររបស់មនុស្ស។
អគ្គលេខាធិការ António Guterres ចូលរួមពិធីរំលឹក សន្តិភាព នៅទីក្រុងហ៊ីរ៉ូស៊ីម៉ា ដែលរងការវាយប្រហារដោយគ្រាប់បែកបរមាណូក្នុងឆ្នាំ 1945។ រូបថត៖ UN
ការផ្លាស់ប្តូរ ភូមិសាស្ត្រនយោបាយ កំពុងបង្កើតឱកាសសម្រាប់កតិកាសញ្ញាបែបនេះ។ ជាឧទាហរណ៍ អ្នកជំនាញ AI ឈានមុខគេមកពីប្រទេសចិន និងសហរដ្ឋអាមេរិក បានចូលរួមក្នុងកិច្ចសន្ទនាពីរបទស្តីពីហានិភ័យ AI ដែលនាំឱ្យមានសេចក្តីថ្លែងការណ៍រួមរបស់អតីតប្រធានាធិបតីអាមេរិក Joe Biden និងប្រធានាធិបតីចិន Xi Jinping កាលពីខែវិច្ឆិកាឆ្នាំមុន។
មហាសេដ្ឋី Elon Musk ជាអ្នកតស៊ូមតិដ៏រឹងមាំសម្រាប់ការសង្គ្រោះមនុស្សជាតិពីហានិភ័យអត្ថិភាពដែលបង្កឡើងដោយ AI ហើយ Musk អាចជំរុញឱ្យប្រធានាធិបតីអាមេរិកបច្ចុប្បន្ន Donald Trump បង្វែរសេចក្តីថ្លែងការណ៍រួមរវាង Joe Biden និង Xi Jinping ទៅជាសន្ធិសញ្ញា នេះបើយោងតាមលោក Dr. Sundeep Waslekar ។
ការប្រឈមមុខនឹងនុយក្លេអែរ AI ក៏ទាមទារឱ្យមានការចូលរួមពីរុស្សីផងដែរ នេះបើយោងតាមលោកបណ្ឌិត Sundeep Waslekar ។ រហូតមកដល់ខែមករាឆ្នាំនេះ រុស្ស៊ីបានបដិសេធមិនពិភាក្សាអំពីវិធានការកាត់បន្ថយហានិភ័យនុយក្លេអ៊ែរ រួមទាំងការបញ្ចូលគ្នាជាមួយ AI លុះត្រាតែអ៊ុយក្រែនត្រូវបានលើកឡើង។
ជាមួយនឹងប្រធានាធិបតី Donald Trump ចូលរួមក្នុងកិច្ចសន្ទនាជាមួយប្រធានាធិបតីរុស្ស៊ីលោក Vladimir Putin ដើម្បីបង្កើនទំនាក់ទំនងទ្វេភាគី និងបញ្ចប់សង្រ្គាមនៅអ៊ុយក្រែន ឥឡូវនេះរុស្ស៊ីអាចនឹងបើកចំហសម្រាប់ការពិភាក្សា។
នៅក្នុងខែកុម្ភៈឆ្នាំនេះ បន្ទាប់ពីសុន្ទរកថារបស់អនុប្រធានាធិបតីអាមេរិក JD Vance នៅឯកិច្ចប្រជុំកំពូលសកម្មភាព AI ទីក្រុងប៉ារីស មជ្ឈមណ្ឌលសម្រាប់សន្តិសុខអាមេរិកថ្មី (CNAS) ក៏បានចេញផ្សាយរបាយការណ៍មួយដែលមានចំណងជើងថា "ការការពារ AI Doomsday: US-China-Russia Competition at the Nexus of Nuclear Weapons and Artificial Intelligence"។
របាយការណ៍នេះបានកំណត់ហានិភ័យដ៏សំខាន់បំផុតនៃទំនាក់ទំនងនុយក្លេអ៊ែរ AI និងជំរុញឱ្យរដ្ឋបាលសហរដ្ឋអាមេរិកបង្កើតសំណុំទូលំទូលាយនៃយន្តការកាត់បន្ថយហានិភ័យ និងការគ្រប់គ្រងវិបត្តិជាមួយប្រទេសចិន និងរុស្ស៊ី។
កាលពីដើមខែកញ្ញាឆ្នាំមុន ប្រទេសប្រហែល 60 រួមទាំងសហរដ្ឋអាមេរិកបានអនុម័ត "ផែនការសកម្មភាព" ដើម្បីគ្រប់គ្រងការប្រើប្រាស់ប្រកបដោយទំនួលខុសត្រូវនៃ AI នៅក្នុងយោធានៅឯកិច្ចប្រជុំកំពូល Responsible AI in Military (REAIM) ដែលធ្វើឡើងនៅទីក្រុងសេអ៊ូល ប្រទេសកូរ៉េខាងត្បូង។ នេះជាសន្និសីទលើកទីពីររបស់វាបន្ទាប់ពីដែលបានធ្វើនៅទីក្រុងឡាអេកាលពីឆ្នាំមុន។ ចលនាបែបនេះបង្ហាញថាហានិភ័យនៃសង្គ្រាមនុយក្លេអ៊ែរដែលផ្តួចផ្តើមដោយ AI មិនមែនជារឿងប្រឌិតបែបវិទ្យាសាស្ត្រទេ។
ពិភពលោកកំពុងប្រឈមមុខនឹងបញ្ហាអត្ថិភាពបន្ទាន់កាន់តែខ្លាំងឡើង ដែលទាមទារឱ្យមានសកម្មភាពពិតប្រាកដពីមហាអំណាចនុយក្លេអ៊ែរ ដើម្បីធានាថា "រាល់ការសម្រេចចិត្តអំពីការប្រើប្រាស់អាវុធនុយក្លេអ៊ែរគឺធ្វើឡើងដោយមនុស្ស មិនមែនម៉ាស៊ីន ឬក្បួនដោះស្រាយ" ដូចដែលអគ្គលេខាធិការអង្គការសហប្រជាជាតិលោក Antonio Guterres បានអំពាវនាវ។
ង្វៀន ខាញ់
Kommentar (0)