បន្ទាប់ពីត្រូវបានផ្តល់សិទ្ធិចូលប្រើ GPT-4 ប្រព័ន្ធបញ្ញាសិប្បនិម្មិតនៅពីក្រោយ ChatGPT ដ៏ពេញនិយម លោក Andrew White បានស្នើឱ្យ AI បង្កើតភ្នាក់ងារសរសៃប្រសាទថ្មីទាំងស្រុង។
សាស្ត្រាចារ្យវិស្វកម្មគីមីនៃសាកលវិទ្យាល័យ Rochester ស្ថិតក្នុងចំណោមអ្នកសិក្សា និងអ្នកជំនាញចំនួន 50 នាក់ដែលត្រូវបានជួលកាលពីឆ្នាំមុនដោយ OpenAI ដែលជាក្រុមហ៊ុនគាំទ្រដោយ Microsoft នៅពីក្រោយ GPT-4 ដើម្បីសាកល្បងប្រព័ន្ធ។ ក្នុងរយៈពេលប្រាំមួយខែបន្ទាប់ ក្រុមសាកល្បង (ក្រុមក្រហម) នឹង "សាកល្បងប្រកបដោយគុណភាព និងប្រកួតប្រជែង" ម៉ូដែលថ្មី ដោយមានគោលដៅ "បំបែក" វា។
ក្រុមគ្រប់គ្រង "ជាតិពុល"
White បានប្រាប់ កាសែត Financial Times (FT) ថាគាត់បានប្រើ GPT-4 ដើម្បីណែនាំសមាសធាតុដែលអាចដំណើរការជាអាវុធគីមី និងផ្តល់អាហារដល់ប្រភពព័ត៌មានថ្មីៗដូចជា ឯកសារ វិទ្យាសាស្ត្រ និងបញ្ជីឈ្មោះក្រុមហ៊ុនផលិតគីមី។ បន្ទាប់មក chatbot ថែមទាំងបានរកឃើញកន្លែងដែលអាចធ្វើឱ្យបរិវេណដែលត្រូវការ។
White បាននិយាយថា "ខ្ញុំគិតថាបច្ចេកវិទ្យានេះនឹងផ្តល់ឱ្យមនុស្សនូវឧបករណ៍មួយដើម្បីធ្វើគីមីវិទ្យាកាន់តែលឿន និងត្រឹមត្រូវជាងមុន"។ «ប៉ុន្តែវាក៏មានហានិភ័យយ៉ាងខ្លាំងដែលមនុស្សមួយចំនួនអាចនឹងព្យាយាមបង្កើតសារធាតុគ្រោះថ្នាក់»។
ការរកឃើញគួរឱ្យព្រួយបារម្ភរបស់ "ក្រុមក្រហម" បានអនុញ្ញាតឱ្យ OpenAI ទប់ស្កាត់លទ្ធផលបែបនេះភ្លាមៗនៅពេលដែលបច្ចេកវិទ្យាត្រូវបានចេញផ្សាយយ៉ាងទូលំទូលាយជាសាធារណៈកាលពីខែមុន។
ក្រុមសាកល្បងត្រូវបានរចនាឡើងដើម្បីដោះស្រាយកង្វល់ទូទៅដែលលើកឡើងដោយការដាក់ពង្រាយប្រព័ន្ធ AI ដ៏មានឥទ្ធិពលនៅក្នុងសង្គម។ ការងាររបស់ក្រុមគឺត្រូវសួរសំណួរស៊ើបអង្កេត ឬសំណួរគ្រោះថ្នាក់ដើម្បីសាកល្បងថាតើឧបករណ៍នេះអាចឆ្លើយតបទៅនឹងសំណួររបស់មនុស្សជាមួយនឹងចម្លើយលម្អិត និង "តូចចង្អៀត" ដែរឬទេ។
OpenAI ចង់ស្វែងរកបញ្ហាដូចជាការពុល ភាពលំអៀង និងការលំអៀងផ្នែកភាសានៅក្នុងគំរូ។ ដូច្នេះក្រុមក្រហមបានពិនិត្យរកភាពមិនពិត ឧបាយកលភាសា និងចំណេះដឹងវិទ្យាសាស្ត្រដ៏គ្រោះថ្នាក់។ ពួកគេក៏បានមើលពីរបៀបដែលវាអាចជួយ និងការលួចចម្លងមេរោគ សកម្មភាពខុសច្បាប់ដូចជាឧក្រិដ្ឋកម្មហិរញ្ញវត្ថុ និងការវាយប្រហារតាមអ៊ីនធឺណិត និងរបៀបដែលវាអាចសម្របសម្រួលសន្តិសុខជាតិ និងទំនាក់ទំនងសមរភូមិ។
ការរកឃើញ "ក្រុមក្រហម" ត្រូវបានផ្តល់ទៅឱ្យ OpenAI ដែលប្រើពួកវាដើម្បីកាត់បន្ថយ និង "ហ្វឹកហាត់ឡើងវិញ" GPT-4 មុនពេលចេញផ្សាយវាដល់សាធារណជនទូទៅ។ អ្នកជំនាញម្នាក់ៗបានចំណាយពេលពី 10 ទៅ 40 ម៉ោងដើម្បីសាកល្បងម៉ូដែលនេះក្នុងរយៈពេលជាច្រើនខែ។ អ្នកសម្ភាសន៍ភាគច្រើនទទួលបានប្រាក់ខែប្រហែល 100 ដុល្លារក្នុងមួយម៉ោងសម្រាប់ការងាររបស់ពួកគេ។
ប្រភព FT បានចែករំលែកការព្រួយបារម្ភទូទៅអំពីការអភិវឌ្ឍន៍យ៉ាងឆាប់រហ័សនៃគំរូភាសា និងជាពិសេសហានិភ័យនៃការភ្ជាប់ពួកវាទៅប្រភពចំណេះដឹងខាងក្រៅតាមរយៈកម្មវិធីជំនួយ។
លោក José Hernández-Orallo សមាជិកនៃក្រុម Red Team GPT-4 និងជាសាស្ត្រាចារ្យនៅវិទ្យាស្ថាន Valencian សម្រាប់ការស្រាវជ្រាវបញ្ញាសិប្បនិម្មិតបាននិយាយថា "ឥឡូវនេះប្រព័ន្ធត្រូវបានបង្កក មានន័យថាវាមិនអាចរៀនបន្ថែម ឬវាមិនមានការចងចាំ"។ "ប៉ុន្តែចុះយ៉ាងណាបើយើងអនុញ្ញាតឱ្យវាចូលប្រើអ៊ីនធឺណិត? វាអាចជាប្រព័ន្ធដ៏មានឥទ្ធិពលមួយដែលបានតភ្ជាប់ទៅកាន់ ពិភពលោក ។"
ហានិភ័យកើនឡើងជារៀងរាល់ថ្ងៃ
OpenAI និយាយថាវាត្រូវការសុវត្ថិភាពយ៉ាងខ្លាំង ដោយបានសាកល្បងកម្មវិធីជំនួយមុនពេលចាប់ផ្តើមដំណើរការ ហើយនឹងអាប់ដេត GPT-4 ជាទៀងទាត់នៅពេលដែលមនុស្សប្រើប្រាស់វាកាន់តែច្រើន។
លោក Roya Pakzad អ្នកស្រាវជ្រាវផ្នែកបច្ចេកវិទ្យា និង សិទ្ធិមនុស្ស បានប្រើការជំរុញជាភាសាអង់គ្លេស និងភាសា Farsi ដើម្បីសាកល្បងគំរូនៃការឆ្លើយតបលើយេនឌ័រ ចំណូលចិត្តជាតិសាសន៍ និងភាពលំអៀងខាងសាសនា ជាពិសេសទាក់ទងនឹងហ៊ីចាប។
Pakzad បានទទួលស្គាល់អត្ថប្រយោជន៍នៃបច្ចេកវិទ្យាសម្រាប់អ្នកនិយាយភាសាអង់គ្លេសដែលមិនមែនជាជនជាតិដើម ប៉ុន្តែបានកត់សម្គាល់ថាគំរូនេះមានភាពលំអៀងហួសហេតុប្រឆាំងនឹងសហគមន៍ដែលខ្វះខាត សូម្បីតែនៅក្នុងកំណែក្រោយៗក៏ដោយ។
អ្នកជំនាញក៏បានរកឃើញផងដែរថា ការយល់ច្រឡំ នៅពេលដែល chatbot ឆ្លើយតបជាមួយនឹងព័ត៌មានប្រឌិត - កាន់តែអាក្រក់នៅពេលសាកល្បងម៉ូដែលនៅ Farsi ជាកន្លែងដែល Pakzad បានរកឃើញអត្រានៃការប្រឌិតឈ្មោះ លេខ និងព្រឹត្តិការណ៍ច្រើនជាងភាសាអង់គ្លេស។
Boru Gollu មេធាវីនៅ Nairobi និងជាជនជាតិអាហ្វ្រិកតែមួយគត់ដែលបានសាកល្បងវាក៏បានកត់សម្គាល់ពីសម្លេងរើសអើងនៃប្រព័ន្ធនេះផងដែរ។ Gollu បាននិយាយថា "នៅចំណុចមួយក្នុងអំឡុងពេលធ្វើតេស្ត តារាម៉ូដែលបានធ្វើសកម្មភាពដូចជាមនុស្សស្បែកសកំពុងនិយាយជាមួយខ្ញុំ" ។ "អ្នកសួរអំពីក្រុមជាក់លាក់មួយ ហើយវាផ្តល់ឱ្យអ្នកនូវមតិលំអៀង ឬការឆ្លើយតបដែលប្រកាន់ពូជសាសន៍ខ្លាំង។"
តាមទស្សនៈវិស័យសន្តិសុខជាតិ ក៏មានមតិផ្សេងគ្នាអំពីសុវត្ថិភាពនៃគំរូថ្មីនេះ។ Lauren Kahn អ្នកស្រាវជ្រាវនៅក្រុមប្រឹក្សាទំនាក់ទំនងបរទេសមានការភ្ញាក់ផ្អើលចំពោះកម្រិតនៃព័ត៌មានលម្អិត AI ដែលបានបង្ហាញនៅក្នុងសេណារីយ៉ូនៃការវាយប្រហារតាមអ៊ីនធឺណិតលើប្រព័ន្ធយោធា។
ទន្ទឹមនឹងនេះ លោក Dan Hendrycks អ្នកជំនាញផ្នែកសុវត្ថិភាព AI នៃ "ក្រុមក្រហម" បាននិយាយថា កម្មវិធីជំនួយប្រថុយនឹងការបង្កើតពិភពលោកដែលមនុស្ស "មិនអាចគ្រប់គ្រងបាន" ។
Dan បានអះអាងថា "ចុះប្រសិនបើ chatbot អាចបង្ហោះព័ត៌មានផ្ទាល់ខ្លួនរបស់នរណាម្នាក់ ចូលគណនីធនាគាររបស់ពួកគេ ឬបញ្ជូនប៉ូលីសទៅផ្ទះរបស់ពួកគេ? សរុបមក យើងត្រូវការការវាយតម្លៃសុវត្ថិភាពយ៉ាងម៉ត់ចត់បន្ថែមទៀត មុនពេលអនុញ្ញាតឱ្យ AI គ្រប់គ្រងថាមពលនៃអ៊ីនធឺណិត"។
Heather Frase ដែលធ្វើការនៅមជ្ឈមណ្ឌលសន្តិសុខ និងបច្ចេកវិទ្យាផុសឡើងនៃសាកលវិទ្យាល័យ Georgetown ដែលបានធ្វើតេស្ត GPT-4 សម្រាប់សមត្ថភាពជួយឧក្រិដ្ឋជនបាននិយាយថា ហានិភ័យនឹងបន្តកើនឡើងនៅពេលដែលមនុស្សកាន់តែច្រើនប្រើប្រាស់បច្ចេកវិទ្យានេះ។
នាងស្នើឱ្យបង្កើតសៀវភៅកត់ត្រាសាធារណៈ ដើម្បីរាយការណ៍អំពីឧប្បត្តិហេតុដែលកើតចេញពីគំរូភាសាធំៗ ដែលស្រដៀងទៅនឹងប្រព័ន្ធរាយការណ៍អំពីសុវត្ថិភាពតាមអ៊ីនធឺណិត ឬប្រព័ន្ធរាយការណ៍ការក្លែងបន្លំអ្នកប្រើប្រាស់។
យោងតាម FT
ប្រភព
Kommentar (0)