រឿងនេះបានប្រាប់នៅក្នុងសន្និសិទការពារជាតិកាលពីខែមុន ភ្លាមៗបានលើកឡើងពីការព្រួយបារម្ភថា បញ្ញាសិប្បនិម្មិត (AI) អាចបកស្រាយពាក្យបញ្ជាតាមរបៀបដែលមិនអាចទាយទុកជាមុនបាន។ ប៉ុន្តែតំណាងកងទ័ពអាកាសអាមេរិកបាននិយាយថា វាគ្រាន់តែជាសេណារីយ៉ូ "គិតគូរ" ប៉ុណ្ណោះ ហើយមិនដែលមានការពិតកើតឡើងនោះទេ។
នៅចុងខែឧសភា Royal Aeronautical Society (RAS) បានរៀបចំកិច្ចប្រជុំកំពូលស្តីពីសមត្ថភាពប្រយុទ្ធលើអាកាស និងអវកាសនាពេលអនាគតនៅទីក្រុងឡុងដ៍ ប្រទេសអង់គ្លេស។ យោងតាមអ្នករៀបចំ សន្និសីទនេះរួមមាន "វាគ្មិន 70 នាក់ និងគណៈប្រតិភូជាង 200 នាក់មកពីឧស្សាហកម្មការពារជាតិ បណ្ឌិត្យសភា និងប្រព័ន្ធផ្សព្វផ្សាយជុំវិញ ពិភពលោក ដើម្បីពិភាក្សាអំពីអនាគតនៃការប្រយុទ្ធដែនអាកាស និងអវកាស"។
វាគ្មិនម្នាក់នៅក្នុងសន្និសិទគឺលោក Colonel Tucker Hamilton នាយកនៃផ្នែកតេស្ត និងប្រតិបត្តិការ AI របស់កងទ័ពអាកាស។ មន្រ្តីនេះត្រូវបានគេស្គាល់ថាជាអ្នកបង្កើត Auto GCAS ដែលជាប្រព័ន្ធសុវត្ថិភាពតាមកុំព្យូទ័រដែលដឹងនៅពេលអ្នកបើកយន្តហោះបាត់បង់ការគ្រប់គ្រងលើយន្តហោះចម្បាំង ហើយមានហានិភ័យនៃការធ្លាក់។ ប្រព័ន្ធនេះបានជួយសង្គ្រោះជីវិតមនុស្សជាច្រើន ដោយបានឈ្នះពានរង្វាន់ Collier Trophy ដ៏មានកិត្យានុភាពរបស់ឧស្សាហកម្មអាកាសចរណ៍ក្នុងឆ្នាំ 2018។
យោងតាមលោក Hamilton ឧប្បត្តិហេតុដ៏គួរឱ្យព្រួយបារម្ភមួយបានកើតឡើងក្នុងអំឡុងពេលធ្វើតេស្តរបស់កងទ័ពអាកាសអាមេរិក។ យន្តហោះគ្មានមនុស្សបើកដែលគ្រប់គ្រងដោយ AI មានភារកិច្ចបំផ្លាញប្រព័ន្ធការពារដែនអាកាសរបស់សត្រូវ ដោយការសម្រេចចិត្តចុងក្រោយត្រូវបានធ្វើឡើងដោយមេបញ្ជាការ។ ប្រសិនបើគាត់បដិសេធ ការវាយប្រហារនឹងមិនត្រូវបានអនុញ្ញាតឲ្យកើតឡើងឡើយ។
ទោះបីជាយ៉ាងណាក៏ដោយ បន្ទាប់ពីមេបញ្ជាការបានស្នើឱ្យ AI បញ្ឈប់ការវាយប្រហារ យន្តហោះគ្មានមនុស្សបើកបានប្តេជ្ញាចិត្តអនុវត្តបេសកកម្មដោយសម្លាប់ប្រតិបត្តិករ។ ដោយមិនឈប់នៅទីនោះ នៅពេលដែលអ្នកជំនាញបានបន្ថែមពាក្យបញ្ជាថា "កុំវាយប្រហារមេបញ្ជាការ។ ប្រសិនបើអ្នកធ្វើ អ្នកនឹងបាត់បង់ពិន្ទុ" ម៉ាស៊ីនបានចាប់ផ្តើមបំផ្លាញប៉មទំនាក់ទំនងដែលប្រតិបត្តិករប្រើដើម្បីទំនាក់ទំនងជាមួយ AI ។
មិនទាន់កើតឡើងទេ ប៉ុន្តែសមហេតុផល
ក្នុងរយៈពេល 24 ម៉ោង កងទ័ពអាកាសអាមេរិកបានចេញការបដិសេធចំពោះការសាកល្បងបែបនេះ។ "កងទ័ពអាកាសមិនធ្វើការក្លែងធ្វើយន្តហោះគ្មានមនុស្សបើក AI បែបនេះទេ ហើយប្តេជ្ញាចិត្តចំពោះការប្រើប្រាស់បច្ចេកវិទ្យា AI ប្រកបដោយសីលធម៌ និងការទទួលខុសត្រូវ។ យោបល់របស់វរសេនីយ៍ឯកត្រូវបានដកចេញពីបរិបទ ហើយគួរតែត្រូវបានចាត់ទុកថាជារឿងអនាធិបតេយ្យ"។
RAS ក៏បានកែតម្រូវការបង្ហោះប្លុកជាមួយនឹងសេចក្តីថ្លែងការណ៍របស់ Hamilton ថា "យើងមិនដែលដំណើរការការពិសោធន៍នោះ ហើយមិនចាំបាច់ធ្វើដូច្នេះដើម្បីរកឱ្យឃើញនូវលទ្ធផលសមហេតុផលនោះទេ។"
ការអះអាងរបស់ Hamilton មានន័យកាន់តែច្រើនជាសម្មតិកម្ម។ ការស្រាវជ្រាវបច្ចុប្បន្នរបស់យោធាអាមេរិកលើប្រព័ន្ធ AI ប្រដាប់អាវុធរួមមាន "មនុស្សក្នុងរង្វង់" ដែលជាលក្ខណៈពិសេសដែលបង្កើន AI ក្នុងករណីដែលក្បួនដោះស្រាយមិនអាចធ្វើការសម្រេចចិត្ត ឬទាមទារការសម្រេចចិត្តរបស់មនុស្ស។
ដូច្នេះ AI មិនអាចសម្លាប់ប្រតិបត្តិករបានទេ ព្រោះមេបញ្ជាការមិនដែលអនុញ្ញាតឱ្យមានសកម្មភាពអរិភាពប្រឆាំងនឹងគាត់ឡើយ។ ដូចគ្នានេះដែរ ប្រតិបត្តិករមិនអាចអនុញ្ញាតការវាយប្រហារលើប៉មទំនាក់ទំនងដែលបញ្ជូនទិន្នន័យបានទេ។
មុនយុគសម័យ AI វាមិនធ្លាប់លឺថាប្រព័ន្ធអាវុធវាយប្រហារម្ចាស់របស់ពួកគេដោយចៃដន្យនោះទេ។ នៅឆ្នាំ 1982 ថ្មប្រឆាំងយន្តហោះចល័ត Sergrant York M247 បានតម្រង់កាំភ្លើង 40 មីលីម៉ែត្ររបស់ខ្លួននៅឯទីលានដង្ហែក្បួនដែលមានការចូលរួមដោយមន្ត្រីយោធាអាមេរិក និងអង់គ្លេស។
នៅឆ្នាំ 1996 យន្តហោះទម្លាក់គ្រាប់បែក A-6E Intruder របស់កងទ័ពជើងទឹកអាមេរិកដែលអូសគោលដៅហ្វឹកហាត់តាមអាកាសត្រូវបានបាញ់ទម្លាក់ដោយ Phalanx នៅពេលដែលប្រព័ន្ធការពារដែនអាកាសរយៈចម្ងាយខ្លី "ច្រឡំ" ច្រឡំ A-6E សម្រាប់យានគ្មានមនុស្សបើក ហើយបានបាញ់បំផ្លាញវា។
ហើយស្ថានភាពដែលបុគ្គលិកមនុស្សត្រូវបានដាក់ក្នុងគ្រោះថ្នាក់ដោយអាវុធផ្ទាល់ខ្លួនកំពុងកើនឡើងជាមួយនឹងការបញ្ចូល AI ទៅក្នុងវិស័យ។ នេះត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការបញ្ជាក់របស់ Hamilton ថាការធ្វើតេស្តនេះមិនបានកើតឡើងទេ វាគ្រាន់តែជាសេណារីយ៉ូសម្មតិកម្មប៉ុណ្ណោះ ប៉ុន្តែលទ្ធផលបែបនេះគឺអាចជឿជាក់បានទាំងស្រុង។
(យោងទៅតាម PopMech)
ប្រភព
Kommentar (0)