Geoffrey Hinton ដែលជាអ្នកបង្កើតបច្ចេកវិទ្យាមូលដ្ឋានសម្រាប់ប្រព័ន្ធ AI បានប្រាប់កាសែត The New York Times (NYT) ថាភាពជឿនលឿនដែលបានធ្វើឡើងនៅក្នុងវិស័យនេះបង្ក "ហានិភ័យយ៉ាងជ្រាលជ្រៅដល់សង្គម និងមនុស្សជាតិ" ។
Geoffrey Hinton ដែលជាអ្នកត្រួសត្រាយផ្លូវ AI បានចាកចេញពី Google ហើយឥឡូវនេះកំពុងព្រមានអំពីគ្រោះថ្នាក់នៃបច្ចេកវិទ្យាដែលប្រើដោយកម្មវិធីដូចជា ChatGPT ជាដើម។ រូបថត៖ AFP
"សូមមើលពីរបៀបដែលវាកាលពី 5 ឆ្នាំមុននិងរបៀបដែលវាឥឡូវនេះ" ។ លោក Hinton និយាយថា ការប្រកួតប្រជែងរវាងក្រុមហ៊ុនបច្ចេកវិទ្យាយក្សកំពុងជំរុញឱ្យក្រុមហ៊ុននានាបញ្ចេញបច្ចេកវិទ្យា AI ថ្មីក្នុងល្បឿនដ៏គ្រោះថ្នាក់ ដោយធ្វើឱ្យការងារប្រឈមនឹងហានិភ័យ និងផ្សព្វផ្សាយព័ត៌មានមិនពិត។
គាត់បានប្រាប់ NYT ថា "វាពិបាកក្នុងការមើលពីរបៀបដែលអ្នកអាចបញ្ឈប់មនុស្សអាក្រក់ពីការប្រើប្រាស់វាសម្រាប់រឿងអាក្រក់" ។
នៅឆ្នាំ 2022 Google និង OpenAI ដែលជាការចាប់ផ្តើមនៅពីក្រោយ AI chatbot ដ៏ពេញនិយម ChatGPT បានចាប់ផ្តើមបង្កើតប្រព័ន្ធដែលប្រើប្រាស់ទិន្នន័យធំជាងពេលមុនៗ។
Hinton បានប្រាប់ NYT ថាគាត់ជឿថាប្រព័ន្ធទាំងនេះកំពុងបាត់បង់ភាពវៃឆ្លាតរបស់មនុស្សក្នុងវិធីមួយចំនួនដោយសារតែចំនួនទិន្នន័យដែលពួកគេកំពុងវិភាគ។
គាត់បានប្រាប់កាសែតថា "ប្រហែលជាអ្វីដែលកំពុងកើតឡើងនៅក្នុងប្រព័ន្ធទាំងនេះគឺពិតជាប្រសើរជាងអ្វីដែលកំពុងកើតឡើងនៅក្នុងខួរក្បាល"។
ខណៈពេលដែល AI ត្រូវបានប្រើដើម្បីជួយមនុស្ស ការពង្រីកយ៉ាងឆាប់រហ័សនៃ chatbots ដូចជា ChatGPT អាចធ្វើឱ្យការងារប្រឈមនឹងហានិភ័យ។ គាត់បាននិយាយថា AI "កម្ចាត់ភាពឃោរឃៅ" ប៉ុន្តែ "អាចយកចេញបានច្រើនទៀត" ។
អ្នកវិទ្យាសាស្ត្រ ក៏បានព្រមានអំពីសក្តានុពលសម្រាប់ព័ត៌មានខុសដែលបង្កើតដោយ AI ដើម្បីផ្សព្វផ្សាយដោយនិយាយថាមនុស្សជាមធ្យមនឹង "មិនអាចប្រាប់ពីអ្វីដែលជាការពិត" ទៀតទេ។ Hinton បានជូនដំណឹងដល់ Google អំពីការលាលែងពីតំណែងរបស់គាត់កាលពីខែមុន។
កាលពីខែមីនា មហាសេដ្ឋីបច្ចេកវិទ្យា Elon Musk និងអ្នកជំនាញជាច្រើនបានអំពាវនាវឱ្យផ្អាកក្នុងការអភិវឌ្ឍន៍ប្រព័ន្ធ AI ដើម្បីផ្តល់ពេលវេលាដើម្បីធានាថាពួកគេមានសុវត្ថិភាព។
Hinton មិនបានចុះហត្ថលេខាលើលិខិតនោះនៅពេលនោះទេ ប៉ុន្តែបានប្រាប់កាសែត New York Times ថាអ្នកវិទ្យាសាស្ត្រមិនគួរ "ពង្រីកទំហំនេះបន្ថែមទៀតទេ រហូតដល់ពួកគេយល់ថា តើពួកគេអាចគ្រប់គ្រងវាបានដែរឬទេ"។
Mai Anh (យោងតាម NYT, CNA)
ប្រភព
Kommentar (0)