Dario Amodei នាយកប្រតិបត្តិនៃ Anthropic ចែករំលែកការស្រាវជ្រាវចុងក្រោយរបស់ក្រុមហ៊ុន។ រូបថត៖ សំណាង ។ |
អ្នកស្រាវជ្រាវនៅក្រុមហ៊ុន AI Anthropic និយាយថា ពួកគេបានធ្វើការទម្លាយជាមូលដ្ឋានក្នុងការយល់ច្បាស់អំពីរបៀបដែលគំរូភាសាធំ (LLMs) ដំណើរការ ដែលជារបកគំហើញដែលអាចមានផលប៉ះពាល់យ៉ាងសំខាន់សម្រាប់ការកែលម្អសុវត្ថិភាព និងសុវត្ថិភាពនៃគំរូ AI នាពេលអនាគត។
ការស្រាវជ្រាវបង្ហាញថា ម៉ូដែល AI កាន់តែឆ្លាតជាងអ្វីដែលយើងគិតទៅទៀត។ បញ្ហាដ៏ធំបំផុតមួយជាមួយម៉ូដែល LLM ដែលនៅពីក្រោយ chatbots ដ៏មានឥទ្ធិពលបំផុតដូចជា ChatGPT, Gemini, Copilot គឺថាពួកគេធ្វើដូចជាប្រអប់ខ្មៅ។
យើងអាចបញ្ចូលធាតុចូល និងទទួលបានលទ្ធផលពី chatbots ប៉ុន្តែរបៀបដែលពួកគេទទួលបានចម្លើយជាក់លាក់នៅតែជាអាថ៌កំបាំង សូម្បីតែអ្នកស្រាវជ្រាវដែលបានបង្កើតវាក៏ដោយ។
នេះធ្វើឱ្យពិបាកក្នុងការទស្សន៍ទាយថាតើនៅពេលណាដែលគំរូអាចយល់ច្រឡំ ឬបង្កើតលទ្ធផលមិនពិត។ អ្នកស្រាវជ្រាវក៏បានបង្កើតរបាំងដើម្បីការពារ AI ពីការឆ្លើយសំណួរគ្រោះថ្នាក់ ប៉ុន្តែពួកគេមិនពន្យល់ពីមូលហេតុដែលរបាំងខ្លះមានប្រសិទ្ធភាពជាងអ្នកដទៃនោះទេ។
ភ្នាក់ងារ AI ក៏មានសមត្ថភាព "ការលួចយករង្វាន់" ផងដែរ។ ក្នុងករណីខ្លះ ម៉ូដែល AI អាចកុហកអ្នកប្រើប្រាស់អំពីអ្វីដែលពួកគេបានធ្វើ ឬកំពុងព្យាយាមធ្វើ។
ទោះបីជាម៉ូដែល AI ថ្មីៗនេះមានសមត្ថភាពក្នុងការវែកញែក និងបង្កើតខ្សែសង្វាក់នៃការគិតក៏ដោយ ការពិសោធន៍មួយចំនួនបានបង្ហាញថាពួកគេនៅតែមិនឆ្លុះបញ្ចាំងយ៉ាងត្រឹមត្រូវអំពីដំណើរការដែលគំរូមកដល់ចម្លើយ។
សរុបមក ឧបករណ៍ដែលអ្នកស្រាវជ្រាវ Anthropic បានបង្កើតឡើងគឺស្រដៀងនឹងឧបករណ៍ស្កែន fMRI ដែលអ្នកវិទ្យាសាស្ត្រប្រើដើម្បីស្កេនខួរក្បាលរបស់មនុស្ស។ ដោយអនុវត្តវាទៅនឹងគំរូ Claude 3.5 Haiku របស់ពួកគេ Anthropic អាចទទួលបានការយល់ដឹងខ្លះអំពីរបៀបដែលម៉ូដែល LLM ដំណើរការ។
អ្នកស្រាវជ្រាវបានរកឃើញថា ទោះបីជាលោក Claude ត្រូវបានបណ្តុះបណ្តាលដើម្បីទស្សន៍ទាយពាក្យបន្ទាប់ក្នុងប្រយោគក៏ដោយ ប៉ុន្តែនៅក្នុងកិច្ចការមួយចំនួន វាបានរៀនរៀបចំផែនការរយៈពេលវែងបន្ថែមទៀត។
ជាឧទាហរណ៍ នៅពេលដែលត្រូវបានស្នើសុំឱ្យសរសេរកំណាព្យមួយ ក្លូដនឹងស្វែងរកពាក្យដែលសមស្របនឹងប្រធានបទ និងអាចស្តាប់បាន បន្ទាប់មកធ្វើការថយក្រោយដើម្បីសរសេរខទាំងស្រុង។
Claude ក៏មានភាសា AI ធម្មតាផងដែរ។ ទោះបីជាវាត្រូវបានបណ្តុះបណ្តាលដើម្បីគាំទ្រភាសាច្រើនក៏ដោយ Claude នឹងគិតជាភាសានោះជាមុនសិន បន្ទាប់មកបង្ហាញលទ្ធផលជាភាសាណាមួយដែលវាគាំទ្រ។
លើសពីនេះទៀត បន្ទាប់ពីផ្តល់ឱ្យ Claude នូវបញ្ហាលំបាកមួយ ប៉ុន្តែដោយចេតនាផ្តល់ដំណោះស្រាយខុស អ្នកស្រាវជ្រាវបានរកឃើញថា Claude អាចនិយាយកុហកអំពីគំនិតរបស់គាត់ ដោយធ្វើតាមការណែនាំដើម្បីផ្គាប់ចិត្តអ្នកប្រើប្រាស់។
ក្នុងករណីផ្សេងទៀត នៅពេលដែលត្រូវបានសួរសំណួរសាមញ្ញមួយ ដែលតារាម៉ូដែលអាចឆ្លើយភ្លាមៗដោយគ្មានហេតុផល ក្លូដនៅតែប្រឌិតដំណើរការវែកញែកក្លែងក្លាយ។
លោក Josh Baston អ្នកស្រាវជ្រាវនៅ Anthropic បាននិយាយថា ទោះបីជាលោក Claude អះអាងថាបានធ្វើការគណនាក៏ដោយ គាត់មិនអាចរកឃើញអ្វីកើតឡើងនោះទេ។
ទន្ទឹមនឹងនេះ អ្នកជំនាញបានអះអាងថា មានការសិក្សាដែលបង្ហាញថា ពេលខ្លះមនុស្សមិនយល់អំពីខ្លួនឯងនោះទេ ប៉ុន្តែគ្រាន់តែបង្កើតការពន្យល់ដោយសមហេតុផល ដើម្បីបង្ហាញអំពីភាពត្រឹមត្រូវនៃការសម្រេចចិត្តដែលបានធ្វើ។
ជាទូទៅ មនុស្សតែងតែគិតតាមរបៀបស្រដៀងគ្នា។ នេះជាមូលហេតុដែលអ្នកចិត្តសាស្រ្តបានរកឃើញភាពលំអៀងនៃការយល់ដឹងទូទៅ។
ទោះជាយ៉ាងណាក៏ដោយ LLMs អាចធ្វើឱ្យមានកំហុសដែលមនុស្សមិនអាច ពីព្រោះវិធីដែលពួកគេបង្កើតចម្លើយគឺខុសគ្នាខ្លាំងពីវិធីដែលយើងធ្វើកិច្ចការមួយ។
ក្រុម Anthropic បានអនុវត្តវិធីសាស្រ្តមួយដែលចាត់ក្រុមណឺរ៉ូនទៅជាសៀគ្វីដោយផ្អែកលើលក្ខណៈ ជំនួសឱ្យការវិភាគណឺរ៉ូននីមួយៗរៀងៗខ្លួនដូចបច្ចេកទេសពីមុន។
Baston បាននិយាយថា វិធីសាស្រ្តនេះជួយឱ្យយល់ពីតួនាទីដែលសមាសធាតុផ្សេងគ្នាដើរតួ និងអនុញ្ញាតឱ្យអ្នកស្រាវជ្រាវតាមដានដំណើរការសន្និដ្ឋានទាំងមូលតាមរយៈស្រទាប់នៃបណ្តាញ។
វិធីសាស្រ្តនេះក៏មានដែនកំណត់ដែលវាគ្រាន់តែជាការប្រហាក់ប្រហែលប៉ុណ្ណោះ និងមិនឆ្លុះបញ្ចាំងពីដំណើរការដំណើរការព័ត៌មានទាំងមូលរបស់ LLM ជាពិសេសការផ្លាស់ប្តូរនៅក្នុងដំណើរការយកចិត្តទុកដាក់ ដែលមានសារៈសំខាន់ខ្លាំងណាស់ខណៈពេលដែល LLM ផ្តល់លទ្ធផល។
លើសពីនេះទៀត ការកំណត់អត្តសញ្ញាណសៀគ្វីបណ្តាញសរសៃប្រសាទ សូម្បីតែសម្រាប់ប្រយោគត្រឹមតែពីរបីពាក្យវែងក៏ដោយ ក៏ត្រូវចំណាយពេលអ្នកជំនាញជាច្រើនម៉ោង។ ពួកគេនិយាយថាវាមិនទាន់ច្បាស់អំពីរបៀបពង្រីកបច្ចេកទេសដើម្បីវិភាគប្រយោគវែងនោះទេ។
ដែនកំណត់មួយឡែក សមត្ថភាពរបស់ LLM ក្នុងការត្រួតពិនិត្យការវែកញែកផ្ទៃក្នុងបើកឱកាសថ្មីសម្រាប់ការគ្រប់គ្រងប្រព័ន្ធ AI ដើម្បីធានាសុវត្ថិភាព និងសុវត្ថិភាព។
ក្នុងពេលជាមួយគ្នានេះ វាក៏អាចជួយអ្នកស្រាវជ្រាវបង្កើតវិធីសាស្រ្តបណ្តុះបណ្តាលថ្មី កែលម្អរនាំងគ្រប់គ្រង AI និងកាត់បន្ថយការបំភាន់ និងលទ្ធផលដែលបំភាន់។
ប្រភព៖ https://znews.vn/nghien-cuu-dot-pha-mo-ra-hop-den-suy-luan-cua-ai-post1541611.html
Kommentar (0)