ការអភិវឌ្ឍន៍យ៉ាងឆាប់រហ័សដែលមិននឹកស្មានដល់នៃ ChatGPT ដែលជា chatbot បញ្ញាសិប្បនិមិត្ត (AI) ដែលមានមុខងារល្អលើសគេបានផ្លាស់ប្តូរជីវិតមនុស្សទៅកម្រិតខ្លះ ជាពិសេសក្នុងរបៀបធ្វើការ។ ទោះជាយ៉ាងណាក៏ដោយ ហានិភ័យដែលទាក់ទងនឹងបច្ចេកវិទ្យានេះបានបង្កើនការព្រួយបារម្ភក្នុងចំណោមអាជ្ញាធរនៅក្នុងប្រទេសជាច្រើន ជាពិសេសការព្រួយបារម្ភអំពីទិន្នន័យអ្នកប្រើប្រាស់។
ក្នុងបរិបទដែល ពិភពលោក នៅតែខ្វះក្របខ័ណ្ឌច្បាប់ថ្មីរឹងមាំដើម្បីគ្រប់គ្រង AI ប្រកបដោយប្រសិទ្ធភាព និងធានានូវភាពជឿជាក់ខ្ពស់សម្រាប់អ្នកប្រើប្រាស់ ប្រទេសជាច្រើនបានចាប់ផ្តើមចាត់វិធានការដើម្បីគ្រប់គ្រងការប្រើប្រាស់ ChatGPT និង AI ជាទូទៅដើម្បីកាត់បន្ថយហានិភ័យដែលបច្ចេកវិទ្យានេះនាំមក។
ប្រទេសជាច្រើន "ចាត់វិធានការ" ជាមួយ AI
ប្រទេសអ៊ីតាលីគឺជាអ្នកនាំមុខគេក្នុងការចេញសេចក្តីសម្រេចហាមឃាត់ ChatGPT ។
កាលពីថ្ងៃទី 31 ខែមីនា អាជ្ញាធរអ៊ីតាលីបានចេញការហាមឃាត់បណ្តោះអាសន្នលើកម្មវិធី ChatGPT ដោយសារតែការព្រួយបារម្ភអំពីឯកជនភាព និងការខកខានរបស់កម្មវិធីក្នុងការផ្ទៀងផ្ទាត់អ្នកប្រើប្រាស់ដែលមានអាយុចាប់ពី 13 ឆ្នាំឡើងទៅតាមតម្រូវការរបស់អ៊ីតាលី។ ជាមួយគ្នានេះ ប្រទេសអ៊ីតាលីក៏បាននិយាយថា ខ្លួននឹងបើកការស៊ើបអង្កេតទៅលើរបៀបដែល OpenAI ប្រើប្រាស់ទិន្នន័យអ្នកប្រើប្រាស់។
បន្ទាប់ពីការហាមឃាត់ ChatGPT របស់ប្រទេសអ៊ីតាលី ប្រទេសជាច្រើនបានចាត់វិធានការប្រឆាំងនឹងកម្មវិធីនេះ។ (រូបថត៖ រ៉យទ័រ)។
អាជ្ញាធរការពារទិន្នន័យរបស់ប្រទេសអ៊ីតាលីបានផ្តល់ឲ្យ OpenAI ដែលជាក្រុមហ៊ុនបង្កើត ChatGPT ដែលជាថ្ងៃផុតកំណត់នៅចុងខែមេសា ដើម្បីបំពេញតាមតម្រូវការការពារទិន្នន័យ និងឯកជនភាព មុនពេលចាប់ផ្តើមប្រតិបត្តិការធម្មតានៅក្នុងប្រទេស។
ភ្លាមៗបន្ទាប់ពីការសម្រេចចិត្តរបស់ប្រទេសអ៊ីតាលី ប្រទេសជាច្រើនបានចាប់ផ្តើម "ធ្វើតាម" ប្រទេសនេះក្នុងការទប់ស្កាត់ ChatGPT ដោយសារតែការព្រួយបារម្ភទាក់ទងនឹងសុវត្ថិភាព និងឯកជនភាពទិន្នន័យ។
និយតករសុវត្ថិភាព និងឯកជនភាពរបស់បារាំង និងអៀរឡង់បានទាក់ទងសមភាគីរបស់ពួកគេនៅក្នុងប្រទេសអ៊ីតាលី ដើម្បីស្វែងយល់អំពីមូលដ្ឋានសម្រាប់ការហាមឃាត់នេះ។ អ្នកឃ្លាំមើលឯកជនភាពរបស់ប្រទេសបារាំង CNIL បាននិយាយកាលពីថ្ងៃទី 11 ខែមេសាថា ខ្លួនកំពុងស៊ើបអង្កេតពាក្យបណ្តឹងជាច្រើនអំពី ChatGPT ។
ស្នងការការពារទិន្នន័យរបស់ប្រទេសអាល្លឺម៉ង់និយាយថា ទីក្រុងប៊ែកឡាំងទំនងជា "ដើរតាមគន្លងរបស់អ៊ីតាលី" ក្នុងការទប់ស្កាត់ ChatGPT ។
គួរកត់សម្គាល់ថា អាជ្ញាធរការពារទិន្នន័យអឺរ៉ុប (EDPB) បានបង្កើតក្រុមការងារមួយនៅលើ ChatGPT នៅថ្ងៃទី 13 ខែមេសា ដោយនិយាយថា "រដ្ឋជាសមាជិក EDPB បានពិភាក្សាអំពីវិធានការអនុវត្តថ្មីៗនេះដែលធ្វើឡើងដោយអាជ្ញាធរការពារទិន្នន័យអ៊ីតាលីប្រឆាំងនឹង OpenAI ទាក់ទងនឹងសេវាកម្ម ChatGPT ។ EDPB បានសម្រេចចិត្តបង្កើតក្រុមការងារដើម្បីលើកកម្ពស់កិច្ចសហប្រតិបត្តិការ និងផ្លាស់ប្តូរព័ត៌មានអំពីសកម្មភាពអនុវត្តដែលអាចកើតមាន។"
លើសពីនេះ សមាជិកសភាសហភាពអឺរ៉ុប (EU) ក៏កំពុងពិភាក្សាអំពីច្បាប់ EU AI ដែលនឹងគ្រប់គ្រងនរណាម្នាក់ដែលផ្តល់ផលិតផល ឬសេវាកម្មដោយប្រើប្រាស់ AI រួមទាំងប្រព័ន្ធដែលបង្កើតខ្លឹមសារ ការព្យាករណ៍ អនុសាសន៍ ឬការសម្រេចចិត្តដែលប៉ះពាល់ដល់បរិស្ថាន។ សហភាពអឺរ៉ុបក៏ស្នើឱ្យចាត់ថ្នាក់ឧបករណ៍ AI ផ្សេងៗគ្នាទៅតាមកម្រិតហានិភ័យរបស់ពួកគេ ចាប់ពីកម្រិតទាបរហូតដល់មិនអាចទទួលយកបាន។
ទីភ្នាក់ងារការពារទិន្នន័យរបស់ប្រទេសអេស្បាញ AEPD បានប្រកាសថាខ្លួនកំពុងធ្វើការស៊ើបអង្កេតបឋមលើការបំពានទិន្នន័យរបស់ ChatGPT ។
នៅប្រទេសអូស្ត្រាលី ក្រសួងវិទ្យាសាស្ត្រ និងបច្ចេកវិទ្យា បានប្រកាសកាលពីថ្ងៃទី 12 ខែមេសាថា រដ្ឋាភិបាលបានស្នើសុំស្ថាប័នប្រឹក្សាវិទ្យាសាស្ត្ររបស់ខ្លួនសម្រាប់ដំបូន្មានអំពីរបៀបឆ្លើយតបទៅនឹង AI ហើយកំពុងពិចារណាលើជំហានបន្ទាប់។
ការផ្លាស់ប្តូរនេះបង្កើតជាសំណួរអំពីរបៀបដែល AI មានសុវត្ថិភាព និងអ្វីដែល រដ្ឋាភិបាល អាចធ្វើបានដើម្បីកាត់បន្ថយហានិភ័យដែលពាក់ព័ន្ធ។ របាយការណ៍ខែមីនាដោយក្រុមហ៊ុនប្រឹក្សា KPMG និងសមាគមឧស្សាហកម្មព័ត៌មានអូស្ត្រាលីបានរកឃើញថា 2/3 នៃប្រជាជនអូស្ត្រាលីបាននិយាយថាមានច្បាប់ ឬបទប្បញ្ញត្តិមិនគ្រប់គ្រាន់ដើម្បីការពារ AI ពីការប្រើប្រាស់ខុស ខណៈតិចជាងពាក់កណ្តាលនៃអ្នកដែលបានស្ទង់មតិជឿថា AI កំពុងត្រូវបានប្រើប្រាស់ដោយសុវត្ថិភាពនៅកន្លែងធ្វើការ។
ប្រទេសជាច្រើនបានចាប់ផ្តើមចាត់វិធានការដើម្បីគ្រប់គ្រងបច្ចេកវិទ្យា AI ។ (រូបថត៖ រ៉យទ័រ)។
នៅចក្រភពអង់គ្លេស រដ្ឋាភិបាលបាននិយាយថា ខ្លួនមានបំណងបំបែកការទទួលខុសត្រូវសម្រាប់ការគ្រប់គ្រង AI រវាងសិទ្ធិមនុស្ស សុខភាព និងសុវត្ថិភាព និងស្ថាប័នប្រកួតប្រជែង ជាជាងបង្កើតនិយតករថ្មី។
ថ្មីៗនេះ មេដឹកនាំភាគច្រើននៃគណបក្សប្រជាធិបតេយ្យនៅក្នុងព្រឹទ្ធសភាអាមេរិក លោក Chuck Schumer បានធ្វើសេចក្តីព្រាង និងចេញនូវក្របខណ្ឌបទប្បញ្ញត្តិថ្មីមួយស្តីពី AI ដែលអាចការពារការខូចខាតដ៏មហន្តរាយដល់ប្រទេស។ សំណើរបស់ Schumer នឹងតម្រូវឱ្យក្រុមហ៊ុនអនុញ្ញាតឱ្យអ្នកជំនាញឯករាជ្យពិនិត្យមើល និងសាកល្បងបច្ចេកវិទ្យា AI មុនពេលបញ្ចេញវា ឬធ្វើបច្ចុប្បន្នភាពវា។
នៅព្រឹកព្រលឹមថ្ងៃទី 11 ខែមេសា ក្រសួងពាណិជ្ជកម្មអាមេរិកបាននិយាយថា ខ្លួនកំពុងស្វែងរកការអត្ថាធិប្បាយជាសាធារណៈលើវិធានការគណនេយ្យភាព AI ។
ទន្ទឹមនឹងនេះ មជ្ឈមណ្ឌលសម្រាប់បញ្ញាសិប្បនិម្មិត និងគោលនយោបាយឌីជីថលនៅសហរដ្ឋអាមេរិកបានស្នើឱ្យគណៈកម្មការពាណិជ្ជកម្មរារាំង OpenAI ពីការចេញផ្សាយពាណិជ្ជកម្មថ្មីនៃ GPT-4 ដោយលើកហេតុផលថាបច្ចេកវិទ្យានេះគឺ "លំអៀង បោកបញ្ឆោត និងបង្កហានិភ័យដល់ភាពឯកជន និងសុវត្ថិភាពសាធារណៈ"។
ទន្ទឹមនឹងនោះ នៅប្រទេសជប៉ុន រដ្ឋមន្ត្រីការផ្លាស់ប្តូរឌីជីថល លោក Taro Kono បាននិយាយថា លោកចង់ឱ្យកិច្ចប្រជុំរដ្ឋមន្ត្រីឌីជីថល G7 នាពេលខាងមុខ ដែលគ្រោងធ្វើនៅចុងខែមេសា ដើម្បីពិភាក្សាអំពីបច្ចេកវិទ្យា AI រួមទាំង ChatGPT និងផ្ញើសារ G7 រួមមួយ។
កាលពីពេលថ្មីៗនេះ ប្រទេសចិនបានប្រកាសពីវិធានការណ៍ដើម្បីគ្រប់គ្រងសេវាកម្ម AI ដោយនិយាយថាក្រុមហ៊ុនដែលដឹកជញ្ជូនបច្ចេកវិទ្យា AI ត្រូវតែបញ្ជូនការវាយតម្លៃសុវត្ថិភាពទៅអាជ្ញាធរមុនពេលចាប់ផ្តើមសេវាកម្មនៅលើទីផ្សារ។
អ្នកជំនាញព្រមានពីគ្រោះថ្នាក់ពី AI
អ្នកជំនាញខ្លះនិយាយថា AI អាចនាំឱ្យមាន "គ្រោះមហន្តរាយកម្រិតនុយក្លេអ៊ែរ" ។ (រូបថត៖ រ៉យទ័រ)។
ការស្ទង់មតិដែលចេញផ្សាយដោយវិទ្យាស្ថានបញ្ញាសិប្បនិម្មិតរបស់សាកលវិទ្យាល័យ Stanford នៅដើមខែមេសា បានរកឃើញថា 36% នៃអ្នកស្រាវជ្រាវជឿថា AI អាចនាំទៅរក "គ្រោះមហន្តរាយកម្រិតនុយក្លេអ៊ែរ" ដែលបញ្ជាក់ពីការព្រួយបារម្ភដែលមានស្រាប់អំពីការអភិវឌ្ឍន៍យ៉ាងឆាប់រហ័សនៃបច្ចេកវិទ្យា។
ទន្ទឹមនឹងនេះដែរ 73% នៃ AI នឹងនាំទៅរក "ការផ្លាស់ប្តូរសង្គមបដិវត្តន៍" ។
របាយការណ៍នេះបាននិយាយថា ខណៈពេលដែលសមត្ថភាពនៃបច្ចេកវិទ្យាទាំងនេះគឺមិនអាចនឹកស្មានដល់កាលពីមួយទសវត្សរ៍មុន ពួកវាគឺជាការបំភាន់ លំអៀង និងងាយរងគ្រោះក្នុងការកេងប្រវ័ញ្ចសម្រាប់គោលបំណងទុច្ចរិត។ វាបង្កើតបញ្ហាប្រឈមខាងសីលធម៌ នៅពេលដែលអ្នកប្រើប្រាស់ប្រើប្រាស់សេវាកម្មបែបនេះ។
របាយការណ៍ក៏បានកត់សម្គាល់ផងដែរថាចំនួន "ឧប្បត្តិហេតុនិងភាពចម្រូងចម្រាស" ទាក់ទងនឹង AI បានកើនឡើង 26 ដងក្នុងរយៈពេលមួយទសវត្សរ៍កន្លងមកនេះ។
កាលពីខែមុន មហាសេដ្ឋី Elon Musk និងសហស្ថាបនិក Apple លោក Steve Wozniak ស្ថិតក្នុងចំណោមអ្នកជំនាញបច្ចេកវិទ្យារាប់ពាន់នាក់ ដែលបានចុះហត្ថលេខាលើលិខិតអំពាវនាវឱ្យផ្អាកការបណ្តុះបណ្តាលប្រព័ន្ធ AI ដែលមានថាមពលខ្លាំងជាង Open AI's GPT-4 chatbot ដោយនិយាយថា "ប្រព័ន្ធ AI ដ៏មានអានុភាពគួរតែត្រូវបានបង្កើតឡើងនៅពេលដែលយើងមានទំនុកចិត្តថាផលប៉ះពាល់របស់ពួកគេនឹងមានភាពវិជ្ជមាន ហើយហានិភ័យរបស់ពួកគេនឹងអាចគ្រប់គ្រងបាន។"
Yongkang (Reuters, AL Jazeera, ABC)
ប្រភព
Kommentar (0)