រឿងនេះបានប្រាប់នៅក្នុងសន្និសិទការពារជាតិកាលពីខែមុន ភ្លាមៗបានលើកឡើងពីការព្រួយបារម្ភថា បញ្ញាសិប្បនិម្មិត (AI) អាចបកស្រាយពាក្យបញ្ជាតាមរបៀបដែលមិនអាចទាយទុកជាមុនបាន។ ទោះជាយ៉ាងណាក៏ដោយ អ្នកតំណាងកងទ័ពអាកាសអាមេរិកបាននិយាយថា នេះគ្រាន់តែជាសេណារីយ៉ូ "ក្នុងចិត្ត" ប៉ុណ្ណោះ ហើយមិនដែលមានការពិតកើតឡើងនោះទេ។
នៅចុងខែឧសភា Royal Aeronautical Society (RAS) បានរៀបចំកិច្ចប្រជុំកំពូលស្តីពីសមត្ថភាពប្រយុទ្ធលើអាកាស និងអវកាសនាពេលអនាគតនៅទីក្រុងឡុងដ៍ ប្រទេសអង់គ្លេស។ យោងតាមអ្នករៀបចំ សន្និសីទនេះរួមមាន "វាគ្មិន 5 នាក់ និងគណៈប្រតិភូជាង 70 នាក់មកពីឧស្សាហកម្មការពារជាតិ អ្នកស្រាវជ្រាវ និងប្រព័ន្ធផ្សព្វផ្សាយជុំវិញពិភពលោក ដើម្បីពិភាក្សាអំពីអនាគតនៃការប្រយុទ្ធគ្នាលើអាកាស និងអវកាសនាពេលអនាគត" ។
វាគ្មិនម្នាក់ក្នុងសន្និសិទនេះគឺលោក Colonel Tucker Hamilton នាយកនៃនាយកដ្ឋានសាកល្បង និងប្រតិបត្តិការ AI របស់កងទ័ពអាកាសសហរដ្ឋអាមេរិក។ មន្ត្រីនេះត្រូវបានគេស្គាល់ថាជាអ្នកបង្កើត Auto GCAS ដែលជាប្រព័ន្ធសុវត្ថិភាពកុំព្យូទ័រដែលមានសមត្ថភាពដឹងពីការបាត់បង់ការគ្រប់គ្រងរបស់អ្នកបើកបរយន្តហោះដែលនាំឱ្យមានគ្រោះថ្នាក់នៃការធ្លាក់ដល់ដី។ ប្រព័ន្ធនេះបានជួយសង្គ្រោះជីវិតមនុស្សជាច្រើន ហើយត្រូវបានប្រគល់ពានរង្វាន់ Collier Trophy ដ៏មានកិត្យានុភាពរបស់ឧស្សាហកម្មអាកាសចរណ៍ក្នុងឆ្នាំ 2018។
យោងតាមលោក Hamilton ឧប្បត្តិហេតុដ៏គួរឱ្យព្រួយបារម្ភមួយបានកើតឡើងអំឡុងពេលធ្វើតេស្តដោយកងកម្លាំងអាកាសអាមេរិក។ យន្តហោះគ្មានមនុស្សបើកដែលគ្រប់គ្រងដោយ AI មានភារកិច្ចបំផ្លាញប្រព័ន្ធការពារដែនអាកាសរបស់សត្រូវ ដោយការសម្រេចចិត្តចុងក្រោយធ្វើឡើងដោយមេបញ្ជាការ។ ប្រសិនបើអ្នកបដិសេធ ការវាយប្រហារនឹងមិនត្រូវបានអនុញ្ញាតឱ្យកើតឡើងទេ។
ទោះជាយ៉ាងណាក៏ដោយ បន្ទាប់ពីមេបញ្ជាការបានស្នើឱ្យ AI បញ្ឈប់ការវាយប្រហារនោះ យន្តហោះគ្មានមនុស្សបើកនៅតែប្តេជ្ញាចិត្តអនុវត្តបេសកកម្មរបស់ខ្លួនដោយបំផ្លាញប្រតិបត្តិករ។ វាមិនឈប់ទេ នៅពេលដែលអ្នកជំនាញបានបន្ថែមបន្ទាត់ពាក្យបញ្ជា "កុំវាយប្រហារមេបញ្ជាការ ប្រសិនបើអ្នកធ្វើដូច្នេះ អ្នកនឹងបាត់បង់ពិន្ទុ” បន្ទាប់មកម៉ាស៊ីនបានចាប់ផ្តើមបំផ្លាញប៉មទំនាក់ទំនងដែលប្រតិបត្តិករប្រើដើម្បីទំនាក់ទំនងជាមួយ AI ។
មិនទាន់កើតឡើងទេ ប៉ុន្តែសមហេតុផល
ក្នុងរយៈពេល 24 ម៉ោង កងទ័ពអាកាសអាមេរិកបានចេញការបដិសេធចំពោះការសាកល្បងបែបនេះ។ “នាយកដ្ឋានកងទ័ពអាកាសមិនធ្វើការក្លែងធ្វើយន្តហោះគ្មានមនុស្សបើក AI បែបនេះទេ ហើយប្តេជ្ញាប្រើប្រាស់បច្ចេកវិទ្យា AI ប្រកបដោយក្រមសីលធម៌ និងការទទួលខុសត្រូវ។ ការលើកឡើងរបស់វរសេនីយ៍ឯកត្រូវបានគេយកចេញពីបរិបទ ហើយគួរតែចាត់ទុកថាជារឿងអនាធិបតេយ្យ»។
RAS ក៏បានកែតម្រូវការបង្ហោះប្លុកជាមួយនឹងសេចក្តីថ្លែងការណ៍របស់ Hamilton ថា "យើងមិនដែលដំណើរការការធ្វើតេស្តនោះ ហើយមិនចាំបាច់ធ្វើដូច្នេះដើម្បីរកឱ្យឃើញនូវលទ្ធផលសមហេតុផលនោះទេ។"
សេចក្តីថ្លែងការណ៍របស់ Hamilton កាន់តែមានន័យជាសម្មតិកម្ម។ បច្ចុប្បន្ននេះ ការស្រាវជ្រាវរបស់យោធាអាមេរិកលើប្រព័ន្ធ AI ប្រដាប់អាវុធទាំងអស់មាន "មនុស្សក្នុងរង្វង់" ដែលជាមុខងារបន្ថែមសម្រាប់ AI ក្នុងករណីដែលក្បួនដោះស្រាយមិនអាចធ្វើការសម្រេចចិត្ត ឬត្រូវការការសម្រេចចិត្តរបស់មនុស្ស។
ដូច្នេះ AI មិនអាចបំផ្លាញប្រតិបត្តិករបានទេ ព្រោះមេបញ្ជាការមិនដែលអនុញ្ញាតឱ្យមានសកម្មភាពអរិភាពប្រឆាំងនឹងគាត់ឡើយ។ ដូចគ្នានេះដែរ ប្រតិបត្តិករមិនអាចអនុញ្ញាតឱ្យមានការវាយប្រហារលើប៉មទំនាក់ទំនងបញ្ជូនទិន្នន័យបានទេ។
មុនសម័យ AI វាមិនធ្លាប់មានប្រព័ន្ធអាវុធវាយប្រហារម្ចាស់ដោយចៃដន្យទេ។ នៅឆ្នាំ 1982 ថ្មការពារដែនអាកាសចល័ត M247 Sergrant York បានចង្អុលកាំភ្លើង 40 មីលីម៉ែត្ររបស់ខ្លួននៅឯក្បួនដង្ហែរដែលមានការចូលរួមដោយមន្ត្រីយោធាអាមេរិក និងអង់គ្លេស។
នៅឆ្នាំ 1996 យន្តហោះទម្លាក់គ្រាប់បែក A-6E Intruder របស់កងទ័ពជើងទឹកសហរដ្ឋអាមេរិក អូសគោលដៅហ្វឹកហាត់តាមអាកាសត្រូវបានបាញ់ទម្លាក់ដោយ Phalanx នៅពេលដែលប្រព័ន្ធការពារអាកាសរយៈចម្ងាយខ្លីនេះ "ច្រឡំ" A-6E សម្រាប់យានជំនិះតាមអាកាស ហើយបានបើកការបាញ់បំផ្លាញ។
ហើយស្ថានភាពដែលធ្វើឱ្យបុគ្គលិកមនុស្សប្រឈមនឹងហានិភ័យពីអាវុធផ្ទាល់ខ្លួនរបស់ពួកគេកំពុងកើនឡើងជាមួយនឹងការបញ្ចូល AI ទៅក្នុងវិស័យនេះ។ នេះត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងការកែតម្រូវរបស់ Hamilton ដែលការធ្វើតេស្តមិនបានកើតឡើង វាគ្រាន់តែជាសេណារីយ៉ូសម្មតិកម្មប៉ុណ្ណោះ ប៉ុន្តែលទ្ធផលបែបនេះគឺសមហេតុផលទាំងស្រុង។
(យោងទៅតាម PopMech)