Anthropic ទើបតែបានធ្វើបច្ចុប្បន្នភាពគោលការណ៍របស់ខ្លួន។ រូបថត៖ GK Images ។ |
នៅថ្ងៃទី 28 ខែសីហា ក្រុមហ៊ុនបញ្ញាសិប្បនិម្មិត Anthropic បានប្រកាសពីការចេញផ្សាយលក្ខខណ្ឌនៃសេវាកម្មសម្រាប់អ្នកប្រើប្រាស់ និងគោលការណ៍ឯកជនភាពដែលបានធ្វើបច្ចុប្បន្នភាព។ ឥឡូវនេះ អ្នកប្រើប្រាស់អាចជ្រើសរើសអនុញ្ញាតឱ្យទិន្នន័យរបស់ពួកគេត្រូវបានប្រើប្រាស់ដើម្បីកែលម្អ Claude និងបង្កើនការការពារប្រឆាំងនឹងការរំលោភបំពានដូចជាការបន្លំតាមអ៊ីនធឺណិត និងការក្លែងបន្លំ។
ការជូនដំណឹងនេះនឹងត្រូវបានដាក់ឱ្យដំណើរការនៅក្នុង chatbot ចាប់ពីថ្ងៃទី 28 ខែសីហា។ អ្នកប្រើប្រាស់មានរយៈពេលមួយខែដើម្បីទទួលយក ឬបដិសេធលក្ខខណ្ឌ។ គោលការណ៍ថ្មីនឹងចូលជាធរមានភ្លាមៗនៅពេលទទួលយក។ បន្ទាប់ពីថ្ងៃទី 28 ខែកញ្ញា អ្នកប្រើប្រាស់នឹងត្រូវបានតម្រូវឱ្យធ្វើការជ្រើសរើសដើម្បីបន្តប្រើប្រាស់ Claude។
យោងតាមក្រុមហ៊ុន ការអាប់ដេតទាំងនេះមានគោលបំណងផ្តល់នូវគំរូ AI ដែលមានប្រយោជន៍ និងមានអានុភាពជាងមុន។ ការកែតម្រូវជម្រើសនេះគឺសាមញ្ញ ហើយអាចធ្វើបានគ្រប់ពេលនៅក្នុងការកំណត់ភាពឯកជន។
ការផ្លាស់ប្តូរទាំងនេះអនុវត្តចំពោះគម្រោង Claude Free, Pro និង Max ដែលរួមមាន Claude Code ដែលជាឧបករណ៍សរសេរកម្មវិធីរបស់ Anthropic។ សេវាកម្មដែលគ្របដណ្ដប់ដោយលក្ខខណ្ឌពាណិជ្ជកម្មនឹងមិនត្រូវបានរួមបញ្ចូលទេ រួមទាំង Claude for Work, Claude Gov, Claude for Education ឬការប្រើប្រាស់ API រួមទាំងតាមរយៈភាគីទីបីដូចជា Amazon Bedrock និង Google Cloud's Vertex AI។
នៅក្នុងការបង្ហោះប្លក់របស់ខ្លួន Anthropic បានបញ្ជាក់ថា តាមរយៈការចូលរួម អ្នកប្រើប្រាស់នឹងជួយកែលម្អសុវត្ថិភាពរបស់ម៉ូដែល បង្កើនសមត្ថភាពរបស់វាក្នុងការរកឃើញខ្លឹមសារព្យាបាទបានយ៉ាងត្រឹមត្រូវ និងកាត់បន្ថយហានិភ័យនៃការសម្គាល់ការសន្ទនាដែលគ្មានគ្រោះថ្នាក់ដោយច្រឡំ។ កំណែនាពេលអនាគតរបស់ Claude ក៏នឹងមានជំនាញប្រសើរឡើងដូចជាការសរសេរកម្មវិធី ការវិភាគ និងការវែកញែកផងដែរ។
វាជារឿងសំខាន់ដែលអ្នកប្រើប្រាស់មានការគ្រប់គ្រងពេញលេញលើទិន្នន័យរបស់ពួកគេ ហើយអាចជ្រើសរើសថាតើត្រូវអនុញ្ញាតឱ្យវេទិកាប្រើប្រាស់វានៅក្នុងបង្អួចដែលអាចមើលឃើញឬអត់។ គណនីថ្មីអាចរៀបចំវាតាមជម្រើសក្នុងអំឡុងពេលដំណើរការចុះឈ្មោះ។
![]() |
បង្អួចដែលបង្ហាញលក្ខខណ្ឌថ្មីនៅក្នុង chatbot។ រូបភាព៖ Anthropic។ |
ការរក្សាទុកទិន្នន័យត្រូវបានបង្កើនដល់ 5 ឆ្នាំ ដែលអនុវត្តចំពោះការសន្ទនាថ្មី ឬវគ្គសរសេរកូដ ក៏ដូចជាការឆ្លើយតបទៅនឹងចម្លើយ chatbot។ ទិន្នន័យដែលបានលុបនឹងមិនត្រូវបានប្រើប្រាស់សម្រាប់ការបណ្តុះបណ្តាលគំរូនាពេលអនាគតទេ។ ប្រសិនបើអ្នកប្រើប្រាស់មិនយល់ព្រមផ្តល់ទិន្នន័យសម្រាប់ការបណ្តុះបណ្តាលទេ ពួកគេនឹងបន្តជាមួយនឹងគោលការណ៍រក្សាទុករយៈពេល 30 ថ្ងៃបច្ចុប្បន្ន។
ដោយពន្យល់ពីគោលនយោបាយរបស់ខ្លួន Anthropic អះអាងថា វដ្តអភិវឌ្ឍន៍ AI ជាធម្មតាមានរយៈពេលច្រើនឆ្នាំ ហើយការរក្សាភាពស៊ីសង្វាក់គ្នានៃទិន្នន័យពេញមួយដំណើរការបណ្តុះបណ្តាលជួយបង្កើតគំរូដែលស៊ីសង្វាក់គ្នាជាងមុន។ ការរក្សាទុកទិន្នន័យយូរជាងនេះក៏ធ្វើអោយប្រសើរឡើងនូវឧបករណ៍ចាត់ថ្នាក់ និងប្រព័ន្ធដែលប្រើដើម្បីកំណត់អត្តសញ្ញាណអាកប្បកិរិយារំលោភបំពាន ដែលអាចឱ្យមានការរកឃើញគំរូអាកប្បកិរិយាដែលបង្កគ្រោះថ្នាក់។
ក្រុមហ៊ុនបានសរសេរថា “ដើម្បីការពារភាពឯកជនរបស់អ្នកប្រើប្រាស់ យើងប្រើប្រាស់ឧបករណ៍ និងដំណើរការស្វ័យប្រវត្តិរួមបញ្ចូលគ្នា ដើម្បីត្រង ឬលាក់ទិន្នន័យរសើប។ យើងមិនលក់ទិន្នន័យអ្នកប្រើប្រាស់ទៅឱ្យភាគីទីបីទេ”។
Anthropic ជារឿយៗត្រូវបានលើកឡើងថាជាក្រុមហ៊ុនឈានមុខគេមួយក្នុងវិស័យ AI សុវត្ថិភាព។ Anthropic បង្កើតវិធីសាស្រ្តមួយហៅថា AI រដ្ឋធម្មនុញ្ញ ដែលកំណត់គោលការណ៍សីលធម៌ និងគោលការណ៍ណែនាំដែលគំរូត្រូវតែអនុវត្តតាម។ Anthropic ក៏ជាក្រុមហ៊ុនមួយក្នុងចំណោមក្រុមហ៊ុនដែលចូលរួមក្នុងការប្តេជ្ញាចិត្ត AI សុវត្ថិភាពជាមួយ រដ្ឋាភិបាល សហរដ្ឋអាមេរិក ចក្រភពអង់គ្លេស និង G7។
ប្រភព៖ https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html







Kommentar (0)