Meta បានណែនាំ Purple Llama ដែលជាគម្រោងមួយសម្រាប់បង្កើតឧបករណ៍ប្រភពបើកចំហសម្រាប់អ្នកអភិវឌ្ឍន៍ដើម្បីវាយតម្លៃ និងកែលម្អភាពជឿជាក់ និងសុវត្ថិភាពនៃគំរូ បញ្ញាសិប្បនិម្មិត (AI) មុនពេលពួកវាត្រូវបានដាក់ឱ្យប្រើប្រាស់។
Meta បានសង្កត់ធ្ងន់លើតម្រូវការសម្រាប់កិច្ចខិតខំប្រឹងប្រែងរួមគ្នាក្នុងការធានាសុវត្ថិភាព AI ដោយលើកហេតុផលថាបញ្ហាប្រឈម AI មិនអាចដោះស្រាយបានដោយឯកោ។
ក្រុមហ៊ុននិយាយថា គោលដៅរបស់ Purple Llama គឺដើម្បីបង្កើតវេទិកាទូទៅសម្រាប់ការអភិវឌ្ឍ AI ជំនាន់ដែលមានសុវត្ថិភាពជាងមុន ខណៈដែលការព្រួយបារម្ភកើនឡើងអំពីគំរូភាសាធំៗ និងបច្ចេកវិទ្យា AI ផ្សេងទៀត។
Gareth Lindahl-Wise ប្រធានផ្នែកសន្តិសុខព័ត៌មាននៅក្រុមហ៊ុនសន្តិសុខអ៊ីនធឺណិត Ontinue ហៅ Purple Llama ថាជាជំហានវិជ្ជមាន និងសកម្មឆ្ពោះទៅរកបច្ចេកវិទ្យា AI ដែលមានសុវត្ថិភាពជាងមុន។
គម្រោង Purple Llama ចាប់ដៃគូជាមួយអ្នកអភិវឌ្ឍន៍ AI ។ សេវាកម្មពពកដូចជា AWS និង Google Cloud; ក្រុមហ៊ុន semiconductor ដូចជា Intel, AMD និង Nvidia; និងក្រុមហ៊ុនសូហ្វវែរ រួមទាំង Microsoft ។
កញ្ចប់ឧបករណ៍ដំបូងដែលបានចេញផ្សាយតាមរយៈ Purple Llama គឺ CyberSecEval ដែលជាឧបករណ៍សម្រាប់វាយតម្លៃហានិភ័យសុវត្ថិភាពអ៊ីនធឺណិតនៅក្នុងកម្មវិធីដែលបង្កើតដោយ AI ។
វាមានគំរូភាសាដែលកំណត់អត្តសញ្ញាណអត្ថបទមិនសមរម្យ ឬបង្កគ្រោះថ្នាក់ រួមទាំងការពិភាក្សាអំពីអំពើហិង្សា ឬសកម្មភាពខុសច្បាប់។
អ្នកអភិវឌ្ឍន៍អាចប្រើ CyberSecEval ដើម្បីសាកល្បងថាតើគំរូ AI របស់ពួកគេងាយនឹងបង្កើតកូដមិនមានសុវត្ថិភាព ឬគាំទ្រការវាយប្រហារតាមអ៊ីនធឺណិត។
ការស្រាវជ្រាវមេតាបានរកឃើញថាគំរូភាសាធំ ៗ តែងតែណែនាំកូដដែលងាយរងគ្រោះ ដោយបញ្ជាក់ពីសារៈសំខាន់នៃការធ្វើតេស្តបន្ត និងការកែលម្អសម្រាប់សុវត្ថិភាព AI ។
Llama Guard គឺជាកញ្ចប់ឧបករណ៍មួយផ្សេងទៀត ដែលជាគំរូភាសាដ៏ធំមួយដែលត្រូវបានបណ្តុះបណ្តាលដើម្បីកំណត់អត្តសញ្ញាណដែលអាចបង្កគ្រោះថ្នាក់ ឬភាសាប្រមាថ។
អ្នកអភិវឌ្ឍន៍អាចប្រើ Llama Guard ដើម្បីពិនិត្យមើលថាតើគំរូរបស់ពួកគេបង្កើត ឬទទួលយកខ្លឹមសារមិនមានសុវត្ថិភាព ដើម្បីជួយត្រងការជម្រុញដែលអាចនាំឱ្យមានលទ្ធផលមិនសមរម្យ។
(យោងតាម IFW)
ចក្រភពអង់គ្លេសវិនិយោគយ៉ាងច្រើនក្នុង AI បើកដំណើរការគម្រោង Quantum ថ្មីចំនួន 5
ខ្សែក្រវ៉ាត់ AI GUIDi ជំនួសអំពៅសម្រាប់អ្នកពិការភ្នែក
សម្ព័ន្ធ AI ប្រភពបើកចំហរបស់ក្រុមហ៊ុនបច្ចេកវិទ្យាយក្សនឹងប្រកួតប្រជែងជាមួយ OpenAI
ទិសដៅតែមួយគត់ក្នុងការអភិវឌ្ឍន៍ AI chatbot នៅក្នុងប្រទេសចិន
ប្រភព
Kommentar (0)