គំរូនេះមានសមត្ថភាពវែកញែក ដោះស្រាយបញ្ហាគណិតវិទ្យាស្មុគស្មាញ និងឆ្លើយសំណួរស្រាវជ្រាវ វិទ្យាសាស្ត្រ ដែលត្រូវបានចាត់ទុកថាជាជំហានដ៏សំខាន់មួយឆ្ពោះទៅមុខក្នុងការអភិវឌ្ឍបញ្ញាសិប្បនិម្មិតទូទៅ (AGI) - ម៉ាស៊ីនដែលមានសមត្ថភាពយល់ដឹងដូចមនុស្ស។
OpenAI និយាយថា ខ្លួនកំពុង «ប្រុងប្រយ័ត្ន» ជាពិសេសអំពីរបៀបដែលខ្លួននាំយកម៉ូដែល o1 មកកាន់សាធារណជន ដោយសារតែសមត្ថភាពកម្រិតខ្ពស់របស់វា។ រូបថត៖ Getty Images
យោងតាមកាសែត Financial Times បានឲ្យដឹងថា OpenAI បានវាយតម្លៃហានិភ័យនៃម៉ូដែលថ្មីទាំងនេះថាជា "មធ្យម" សម្រាប់បញ្ហាទាក់ទងនឹងអាវុធគីមី ជីវសាស្រ្ត វិទ្យុសកម្ម និងនុយក្លេអ៊ែរ (CBRN) ដែលជាចំណាត់ថ្នាក់ខ្ពស់បំផុតដែលក្រុមហ៊ុនធ្លាប់ផ្តល់ឱ្យ។ នេះមានន័យថាបច្ចេកវិទ្យានេះបាន "ធ្វើឱ្យប្រសើរឡើងគួរឱ្យកត់សម្គាល់" នូវសមត្ថភាពរបស់អ្នកជំនាញក្នុងការបង្កើតអាវុធជីវសាស្រ្ត។
យោងតាមអ្នកជំនាញ កម្មវិធី AI ដែលមានសមត្ថភាពវែកញែកលម្អិត ជាពិសេសនៅក្នុងដៃរបស់ជនល្មើសដែលមានគំនិតអាក្រក់ អាចបង្កើនហានិភ័យនៃការរំលោភបំពាន។
សាស្ត្រាចារ្យ Yoshua Bengio ដែលជាអ្នកវិទ្យាសាស្ត្រ AI ឈានមុខគេ ម្នាក់មកពីសាកលវិទ្យាល័យ Montreal បានសង្កត់ធ្ងន់ថា កម្រិតហានិភ័យកម្រិតមធ្យមនេះ កាន់តែបង្កើនភាពបន្ទាន់នៃការអនុម័តបទប្បញ្ញត្តិស្តីពី AI ដូចជាសេចក្តីព្រាងច្បាប់ SB 1047 ដែលកំពុងត្រូវបានជជែកពិភាក្សានៅក្នុងរដ្ឋកាលីហ្វ័រញ៉ា។ សេចក្តីព្រាងច្បាប់នេះតម្រូវឱ្យក្រុមហ៊ុនផលិត AI ចាត់វិធានការដើម្បីកាត់បន្ថយហានិភ័យនៃការប្រើប្រាស់ម៉ូដែលរបស់ពួកគេខុសដើម្បីអភិវឌ្ឍអាវុធជីវសាស្រ្ត។
យោងតាម The Verge សុវត្ថិភាព និងសុវត្ថិភាពនៃគំរូ AI បានក្លាយជាកង្វល់ដ៏ធំមួយ ខណៈដែលក្រុមហ៊ុនបច្ចេកវិទ្យាដូចជា Google, Meta និង Anthropic ប្រណាំងប្រជែងគ្នាដើម្បីបង្កើត និងកែលម្អប្រព័ន្ធ AI កម្រិតខ្ពស់។
ប្រព័ន្ធទាំងនេះមានសក្តានុពលក្នុងការផ្តល់អត្ថប្រយោជន៍យ៉ាងសំខាន់ក្នុងការជួយមនុស្សឱ្យបំពេញភារកិច្ច និងជួយក្នុងវិស័យផ្សេងៗ ប៉ុន្តែវាក៏បង្កបញ្ហាប្រឈមទាក់ទងនឹងសុវត្ថិភាព និងការទទួលខុសត្រូវសង្គមផងដែរ។
កៅ ផុង (យោងតាម FT, Reuters, The Verge)
[ការផ្សាយពាណិជ្ជកម្ម_២]
ប្រភព៖ https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-sinh-hoc-post312337.html






Kommentar (0)