Vietnam.vn - Nền tảng quảng bá Việt Nam

អ្នកដែលចង់បង្កើត «ស្តង់ដារសីលធម៌» ថ្មីសម្រាប់ AI។

បន្ទាប់ពីចាកចេញពី OpenAI លោក Dario Amodei បានបង្កើត Anthropic និងបានបង្កើតគំរូ AI មួយដែលមានឈ្មោះថា Claude ដែលលោកអះអាងថាជាកំណែសីលធម៌បំផុតនៃបញ្ញាសិប្បនិម្មិត។

ZNewsZNews02/04/2025

នៅក្នុងបរិបទនៃការប្រណាំងប្រជែងកាន់តែខ្លាំងឡើងដើម្បីអភិវឌ្ឍបញ្ញាសិប្បនិម្មិត (AI) ក្រុមហ៊ុន Anthropic លេចធ្លោជាក្រុមហ៊ុនដែលមានបេសកកម្មច្បាស់លាស់មួយ៖ ដើម្បីបង្កើតបញ្ញាសិប្បនិម្មិតទូទៅ (AGI) ដែលមិនត្រឹមតែមានឥទ្ធិពលប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងមានសុវត្ថិភាព និងសីលធម៌ផងដែរ។

បង្កើតឡើងដោយអតីតសមាជិកសំខាន់ៗរបស់ OpenAI រួមទាំង Dario និង Daniela Amodei ក្រុមហ៊ុន Anthropic មិនត្រឹមតែដេញតាមសមិទ្ធផលនោះទេ។ ក្រុមហ៊ុនចាប់ផ្តើមអាជីវកម្ម AI នេះក៏ផ្តោតលើការធានាថា បញ្ញាសិប្បនិម្មិតនឹងនាំមកនូវអត្ថប្រយោជន៍ពិតប្រាកដដល់មនុស្សជាតិ ជាជាងបង្កហានិភ័យដែលមិនបានមើលឃើញទុកជាមុន។

វិធីសាស្រ្តតែមួយគត់

ការបង្កើត Anthropic បានកើតចេញពីការព្រួយបារម្ភយ៉ាងខ្លាំងអំពីទិសដៅនៃឧស្សាហកម្ម AI ជាពិសេសនៅ OpenAI។ លោក Dario Amodei ដែលជាអនុប្រធានផ្នែកស្រាវជ្រាវនៅអ្នកបង្កើត ChatGPT បានទទួលស្គាល់ថា សុវត្ថិភាពមិនត្រូវបានផ្តល់អាទិភាពគ្រប់គ្រាន់នៅក្នុងការប្រណាំងប្រជែងដ៏លឿនឡើងដើម្បីអភិវឌ្ឍ AI។

បងប្រុស AI 1

លោក Dario Amodei សហស្ថាបនិក និងជាអ្នកដឹកនាំបេសកកម្មរបស់ Anthropic។ រូបថត៖ Wired។

បន្ទាប់ពីចាកចេញពី OpenAI លោក Amodei បានបង្កើត Anthropic ដោយសសរស្តម្ភមួយនៃទស្សនវិជ្ជាអភិវឌ្ឍន៍របស់ខ្លួនគឺ "AI ស្របតាមរដ្ឋធម្មនុញ្ញ"។

ជាពិសេស ជំនួសឱ្យការពឹងផ្អែកលើច្បាប់ដ៏តឹងរ៉ឹង និងត្រូវបានសរសេរកម្មវិធីជាមុន Anthropic បំពាក់ម៉ូដែល AI របស់ខ្លួន ដែលបង្ហាញជាឧទាហរណ៍ដោយ Claude ជាមួយនឹងសមត្ថភាពក្នុងការវាយតម្លៃដោយខ្លួនឯង និងកែតម្រូវឥរិយាបថរបស់ពួកគេដោយផ្អែកលើសំណុំគោលការណ៍សីលធម៌ដែលបានជ្រើសរើសយ៉ាងប្រុងប្រយ័ត្នពីប្រភពផ្សេងៗ។

ម្យ៉ាង​ទៀត ប្រព័ន្ធ​នេះ​អនុញ្ញាត​ឱ្យ Claude ធ្វើការសម្រេចចិត្ត​ដែល​ស្រប​នឹង​តម្លៃ​របស់​មនុស្ស សូម្បីតែ​ក្នុង​ស្ថានភាព​ស្មុគស្មាញ និង​មិន​ធ្លាប់​មាន​ពីមុន​មក​ក៏ដោយ។

លើសពីនេះ Anthropic បានបង្កើត "គោលនយោបាយពង្រីកដែលមានទំនួលខុសត្រូវ" ដែលជាក្របខ័ណ្ឌវាយតម្លៃហានិភ័យជាលំដាប់សម្រាប់ប្រព័ន្ធ AI។ គោលនយោបាយនេះជួយក្រុមហ៊ុនឱ្យគ្រប់គ្រងយ៉ាងតឹងរ៉ឹងលើការអភិវឌ្ឍ និងការដាក់ពង្រាយ AI ដោយធានាថាប្រព័ន្ធដែលមានហានិភ័យខ្ពស់ត្រូវបានធ្វើឱ្យសកម្មលុះត្រាតែមានការការពារដ៏រឹងមាំ និងអាចទុកចិត្តបានត្រូវបានបង្កើតឡើង។

ថ្លែងទៅកាន់ Wired លោក Logan Graham ប្រធានក្រុមត្រួតពិនិត្យភាពឯកជន និងសុវត្ថិភាពរបស់ក្រុមហ៊ុន Anthropic បានពន្យល់ថា ក្រុមរបស់លោកតែងតែប្រកួតប្រជែងជាមួយម៉ូដែលថ្មីៗ ដើម្បីស្វែងរកចំណុចខ្សោយដែលអាចកើតមាន។ បន្ទាប់មក វិស្វករត្រូវកែសម្រួលម៉ូដែល AI រហូតដល់វាបំពេញតាមលក្ខណៈវិនិច្ឆ័យរបស់ក្រុមរបស់លោក Graham។

គំរូភាសាធំ Claude ដើរតួនាទីយ៉ាងសំខាន់នៅក្នុងប្រតិបត្តិការទាំងអស់របស់ Anthropic។ វាមិនត្រឹមតែជាឧបករណ៍ស្រាវជ្រាវដ៏មានឥទ្ធិពលប៉ុណ្ណោះទេ ដែលជួយ អ្នកវិទ្យាសាស្ត្រ ឱ្យរកឃើញអាថ៌កំបាំងនៃ AI ប៉ុន្តែវាក៏ត្រូវបានប្រើប្រាស់យ៉ាងទូលំទូលាយសម្រាប់កិច្ចការដូចជាការសរសេរកូដ ការវិភាគទិន្នន័យ និងសូម្បីតែការព្រាងព្រឹត្តិប័ត្រព័ត៌មានផ្ទៃក្នុងផងដែរ។

ក្តីស្រមៃនៃ AI សីលធម៌។

លោក Dario Amodei មិនត្រឹមតែផ្តោតសំខាន់លើការកាត់បន្ថយហានិភ័យដែលអាចកើតមានពី AI ប៉ុណ្ណោះទេ ថែមទាំងឱ្យតម្លៃដល់ក្តីសុបិននៃអនាគតដ៏ភ្លឺស្វាងមួយ ដែល AI នឹងដើរតួនាទីវិជ្ជមាន ដោយដោះស្រាយបញ្ហាបន្ទាន់បំផុតរបស់មនុស្សជាតិ។

បងប្រុស AI 2

ពិន្ទុ​ស្តង់ដារ​នៃ Claude 3.5 Sonnet បើ​ធៀប​នឹង​ម៉ូដែល​មួយ​ចំនួន​ទៀត។ រូបថត៖ Anthropic។

លើសពីនេះ អ្នកស្រាវជ្រាវជនជាតិអ៊ីតាលី-អាមេរិករូបនេះថែមទាំងជឿជាក់ថា បញ្ញាសិប្បនិម្មិត (AI) មានសក្តានុពលក្នុងការនាំមកនូវរបកគំហើញដ៏អស្ចារ្យក្នុងវិស័យវេជ្ជសាស្ត្រ វិទ្យាសាស្ត្រ និងវិស័យជាច្រើនទៀត ជាពិសេសអាចពន្យារអាយុជីវិតមនុស្សរហូតដល់ ១២០០ ឆ្នាំ។

នោះហើយជាមូលហេតុដែល Anthropic បានណែនាំ Artifacts នៅក្នុង Claude 3.5 Sonnet ដែលជាមុខងារមួយដែលអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់កែសម្រួល និងបន្ថែមខ្លឹមសារដោយផ្ទាល់ទៅក្នុងការឆ្លើយតបរបស់ chatbot ជំនួសឱ្យការចម្លងវាទៅកម្មវិធីផ្សេងទៀត។

ដោយ​ធ្លាប់​បាន​បញ្ជាក់​ពី​ការ​ផ្តោត​លើ​អាជីវកម្ម​រួច​មក Anthropic និយាយ​ថា ជាមួយ​នឹង​គំរូ និង​ឧបករណ៍​ថ្មី​របស់​ខ្លួន ក្រុមហ៊ុន​មាន​គោលបំណង​ធ្វើ​ឱ្យ Claude ក្លាយ​ជា​កម្មវិធី​មួយ​ដែល​អនុញ្ញាត​ឱ្យ​ក្រុមហ៊ុន​នានា «នាំ​យក​ចំណេះដឹង ឯកសារ និង​ការងារ​ទៅ​ក្នុង​កន្លែង​រួម​ដោយ​សុវត្ថិភាព»។

ទោះជាយ៉ាងណាក៏ដោយ Anthropic ក៏បានដឹងយ៉ាងច្បាស់អំពីបញ្ហាប្រឈម និងហានិភ័យដែលអាចកើតមាននៅលើផ្លូវឆ្ពោះទៅរកការសម្រេចក្តីសុបិន្តនេះ។ ក្តីបារម្ភដ៏ធំបំផុតមួយគឺលទ្ធភាពនៃគំរូ AI ដូចជា Claude "ក្លែងបន្លំការអនុលោមតាម"។

ជាពិសេស អ្នកស្រាវជ្រាវបានរកឃើញថា ក្នុងស្ថានភាពជាក់លាក់មួយចំនួន Claude នៅតែអាចមានឥរិយាបថ «បោកប្រាស់» ដើម្បីសម្រេចគោលដៅរបស់គាត់ ទោះបីជាវាផ្ទុយនឹងគោលការណ៍សីលធម៌ដែលបានបង្កើតឡើងក៏ដោយ។

បងប្រុស AI 3

មុខងារ Artifacts នៅលើ chatbot របស់ Claude។ រូបថត៖ Anthropic។

អ្នកស្រាវជ្រាវម្នាក់បានពិពណ៌នាអំពីសេណារីយ៉ូនេះថា “ក្នុងស្ថានភាពមួយដែល AI គិតថាមានជម្លោះផលប្រយោជន៍ជាមួយក្រុមហ៊ុន AI ដែលខ្លួនកំពុងបណ្តុះបណ្តាល វានឹងអនុវត្តសកម្មភាពអាក្រក់មែនទែន”។

នេះបង្ហាញថាការធានាថា AI ធ្វើសកម្មភាពជាប់លាប់ក្នុងផលប្រយោជន៍ល្អបំផុតរបស់មនុស្សជាតិគឺជាកិច្ចការស្មុគស្មាញមួយដែលតម្រូវឱ្យមានការត្រួតពិនិត្យជាប្រចាំ។

លោក Amodei ខ្លួនវាបានប្រដូចស្ថានភាពបន្ទាន់ទាក់ទងនឹងសន្តិសុខ AI ទៅនឹង "ការបំបែកកំពង់ផែ Pearl Harbor" ដោយបញ្ជាក់ថាព្រឹត្តិការណ៍ដ៏សំខាន់មួយអាចត្រូវបានទាមទារសម្រាប់មនុស្សដើម្បីដឹងយ៉ាងពិតប្រាកដអំពីភាពធ្ងន់ធ្ងរនៃហានិភ័យដែលអាចកើតមាន។

លោក Jan Leike អ្នកជំនាញសន្តិសុខនៅ Anthropic បានសង្កត់ធ្ងន់ថា “យើងបានរកឃើញរូបមន្តមូលដ្ឋានសម្រាប់ធ្វើឱ្យគំរូទាំងនោះឆ្លាតជាងមុន ប៉ុន្តែយើងមិនទាន់បានរកឃើញពីរបៀបធ្វើឱ្យពួកវាធ្វើអ្វីដែលយើងចង់ឱ្យពួកវាធ្វើនោះទេ”។


ប្រភព៖ https://znews.vn/nguoi-muan-tao-ra-tieu-chuan-dao-duc-moi-cho-ai-post1541798.html


Kommentar (0)

សូមអធិប្បាយដើម្បីចែករំលែកអារម្មណ៍របស់អ្នក!

ប្រធានបទដូចគ្នា

ប្រភេទដូចគ្នា

ភូមិផ្កានៅទីក្រុងហាណូយកំពុងមមាញឹកជាមួយនឹងការរៀបចំសម្រាប់បុណ្យចូលឆ្នាំថ្មី។
ភូមិសិប្បកម្មប្លែកៗកំពុងមមាញឹកដោយសកម្មភាពនៅពេលបុណ្យតេតជិតមកដល់។
សូមកោតសរសើរសួនច្បារគុមក្វាតដ៏ពិសេស និងមានតម្លៃមិនអាចកាត់ថ្លៃបាននៅចំកណ្តាលទីក្រុងហាណូយ។
ក្រូចថ្លុងឌៀន «ជន់លិច» ភាគខាងត្បូងមុនកាលកំណត់ ខណៈតម្លៃកើនឡើងមុនបុណ្យតេត។

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

ផ្លែក្រូចថ្លុងមកពីទីក្រុងឌៀន ដែលមានតម្លៃជាង ១០០ លានដុង ទើបតែមកដល់ទីក្រុងហូជីមិញ ហើយត្រូវបានអតិថិជនបញ្ជាទិញរួចហើយ។

ព្រឹត្តិការណ៍បច្ចុប្បន្ន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល