Artificial Intelligence (AI) គឺជាប្រធានបទនៃការពិភាក្សាដ៏ធំបំផុតនៅក្នុងឧស្សាហកម្មបច្ចេកវិទ្យាចាប់តាំងពី OpenAI បានប្រកាស ChatGPT ក្នុងខែវិច្ឆិកា ឆ្នាំ 2022។ ភ្លាមៗបន្ទាប់ពីនោះ ក្រុមហ៊ុនដូចជា Google, Meta, Microsoft... ក៏បានវិនិយោគយ៉ាងច្រើននៅក្នុងកិច្ចខិតខំប្រឹងប្រែង AI ផ្ទាល់ខ្លួនរបស់ពួកគេ។
Big Tech បានបើកចំហអំពីមហិច្ឆតារបស់ខ្លួនសម្រាប់ AI ប៉ុន្តែថ្មីៗនេះ វាបានកំពុងដោះស្រាយយ៉ាងស្ងៀមស្ងាត់នូវហានិភ័យដែលបច្ចេកវិទ្យាបង្កឡើងចំពោះអាជីវកម្មរបស់ខ្លួន។ នៅក្នុងរបាយការណ៍ប្រចាំឆ្នាំ 2023 របស់ខ្លួន Alphabet ដែលជាក្រុមហ៊ុនមេរបស់ Google បាននិយាយថា ផលិតផល និងសេវាកម្ម AI បង្កបញ្ហាប្រកបដោយក្រមសីលធម៌ បច្ចេកវិទ្យា ច្បាប់ និយតកម្ម និងបញ្ហាប្រឈមផ្សេងទៀតដែលអាចជះឥទ្ធិពលអវិជ្ជមានដល់ម៉ាកយីហោ និងតម្រូវការរបស់វា។

Meta, Microsoft, និង Oracle ក៏បានលើកឡើងពីការព្រួយបារម្ភអំពី AI នៅក្នុងឯកសាររបស់ពួកគេជាមួយគណៈកម្មការមូលបត្រអាមេរិក (SEC) ដែលជារឿយៗស្ថិតនៅក្រោមផ្នែក "កត្តាហានិភ័យ" នេះបើយោងតាម Bloomberg ។ ជាឧទាហរណ៍ ក្រុមហ៊ុន Microsoft បាននិយាយថា លក្ខណៈពិសេស AI ជំនាន់អាចងាយរងគ្រោះទៅនឹងការគំរាមកំហែងផ្នែកសុវត្ថិភាពដែលមិនបានមើលឃើញទុកជាមុន។
នៅក្នុងរបាយការណ៍ប្រចាំឆ្នាំ 2023 របស់ Meta ក្រុមហ៊ុនមេរបស់ Facebook បានសង្កត់ធ្ងន់ថា "មានហានិភ័យសំខាន់ៗដែលទាក់ទងនឹងការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ AI" ហើយថា "មិនអាចមានការធានាថាការប្រើប្រាស់ AI នឹងធ្វើអោយសេវាកម្ម ផលិតផល ឬអាជីវកម្មប្រសើរឡើងនោះទេ។" មេតាបានចុះបញ្ជីសេណារីយ៉ូ AI ដែលអាចបង្កគ្រោះថ្នាក់ដល់អ្នកប្រើប្រាស់ និងបង្ហាញពួកគេទៅនឹងវិវាទ ដូចជាព័ត៌មានមិនពិត (ដូចជានៅក្នុងការបោះឆ្នោត) ខ្លឹមសារដែលបង្កគ្រោះថ្នាក់ ការរំលោភបំពានកម្មសិទ្ធិបញ្ញា និងឯកជនភាពទិន្នន័យ។
ទន្ទឹមនឹងនេះ សាធារណជនក៏បានសម្តែងការព្រួយបារម្ភអំពី AI ដែលធ្វើឱ្យការងារមួយចំនួនលែងប្រើ ឬបាត់ ឬគំរូភាសាធំៗដែលត្រូវបានបណ្តុះបណ្តាលលើទិន្នន័យផ្ទាល់ខ្លួនដែលផ្សព្វផ្សាយព័ត៌មានមិនពិត។
នៅថ្ងៃទី 4 ខែមិថុនា ក្រុមអតីតនិយោជិត OpenAI មួយក្រុមបានផ្ញើ "លិខិតចេតនា" សុំឱ្យក្រុមហ៊ុនបច្ចេកវិទ្យាធ្វើបន្ថែមទៀតដើម្បីកាត់បន្ថយហានិភ័យនៃ AI ។ ពួកគេមានការព្រួយបារម្ភថា AI នឹងបង្កើនវិសមភាព ឧបាយកល ព័ត៌មានមិនពិត និងថាប្រព័ន្ធ AI ស្វ័យប្រវត្តិដែលមិនអាចគ្រប់គ្រងបាននឹងគំរាមកំហែងដល់ការរស់រានមានជីវិតរបស់មនុស្សជាតិ។
ប្រភព
Kommentar (0)