សមាជិកសហភាពអឺរ៉ុបពីមុនបានយល់ព្រមក្នុងការកំណត់ការប្រើប្រាស់បច្ចេកវិទ្យាស្កែនមុខនៅកន្លែងសាធារណៈចំពោះស្ថានភាពអនុវត្តច្បាប់មួយចំនួន ដែលជា "បន្ទាត់ក្រហម" សម្រាប់ប្រទេសក្នុងការចរចាជាមួយសភាអឺរ៉ុប និងគណៈកម្មការ។
សមាជិកមជ្ឈិមស្តាំមួយចំនួនបានស្នើការលើកលែងដែលអាចប្រើបច្ចេកវិទ្យាតាមដានជីវមាត្រ ដើម្បីជួយស្វែងរកកុមារដែលបាត់ខ្លួន ឬការពារការវាយប្រហារភេរវកម្ម ប៉ុន្តែនេះក៏មិនត្រូវបានអនុម័តនៅក្នុងការបោះឆ្នោតពេញអង្គដែរ។
អ្នកតាក់តែងច្បាប់បានយល់ព្រមដាក់វិធានការបន្ថែមលើវេទិកា AI ទូទៅដូចជា GPT-4 ដោយតម្រូវឱ្យក្រុមហ៊ុនដូចជា OpenAI និង Google ធ្វើការវាយតម្លៃហានិភ័យ និងបង្ហាញពីអ្វីដែលសម្ភារៈរក្សាសិទ្ធិត្រូវបានប្រើដើម្បីបណ្តុះបណ្តាលគំរូ AI ។
វិធីសាស្រ្តរបស់ EU ចំពោះបទប្បញ្ញត្តិគឺផ្អែកលើការវាយតម្លៃហានិភ័យ។ វាផ្តោតលើការគ្រប់គ្រងការប្រើប្រាស់ AI ជាជាងបច្ចេកវិទ្យាខ្លួនឯង ដោយហាមប្រាមកម្មវិធីមួយចំនួនដូចជាការដាក់ពិន្ទុសង្គម និងកំណត់ស្តង់ដារសម្រាប់ការប្រើប្រាស់បច្ចេកវិទ្យាក្នុងស្ថានភាព "ហានិភ័យខ្ពស់"។
អត្ថបទពេញលេញនៃសេចក្តីព្រាងច្បាប់ AI ត្រូវបានអនុម័តនៅថ្ងៃទី 14 ខែមិថុនា ដោយត្រួសត្រាយផ្លូវសម្រាប់ការពិភាក្សា "ត្រីភាគី" រវាងសភាសហភាពអឺរ៉ុប រដ្ឋជាសមាជិក និងគណៈកម្មការអឺរ៉ុបដើម្បីអនុវត្តតាម។
គណៈកម្មការសង្ឃឹមថានឹងឈានដល់កិច្ចព្រមព្រៀងនៅចុងឆ្នាំនេះ ដើម្បីដាក់ឱ្យអនុវត្តច្បាប់ AI ឱ្យចូលជាធរមានសម្រាប់ក្រុមហ៊ុននានានៅដើមឆ្នាំ 2026។ ទន្ទឹមនឹងនោះ មន្ត្រីមួយចំនួនកំពុងជំរុញឱ្យមាន "ក្រមសីលធម៌" ដោយស្ម័គ្រចិត្តសម្រាប់ក្រុមហ៊ុនដែលនឹងអនុវត្តចំពោះប្រទេស G-7 រួមជាមួយនឹងប្រទេសឥណ្ឌា និងឥណ្ឌូនេស៊ី។
ការរឹតបន្តឹងបទប្បញ្ញត្តិនៃ AI សិប្បនិម្មិតរបស់សហភាពអឺរ៉ុបអាចជះឥទ្ធិពលយ៉ាងសំខាន់លើវិស័យដែលប៉ាន់ស្មានថាមានតម្លៃជាង 1.3 ពាន់ពាន់លានដុល្លារក្នុងរយៈពេល 10 ឆ្នាំខាងមុខ ដោយសារការបំពានច្បាប់របស់ប្លុកនេះអាចបណ្តាលឱ្យមានការផាកពិន័យរហូតដល់ 6% នៃចំណូលប្រចាំឆ្នាំ។
(យោងតាម Bloomberg)
ប្រភព
Kommentar (0)