ធនាគារធំជាងគេរបស់អាមេរិក JPMorgan Chase, Amazon និងក្រុមហ៊ុនបច្ចេកវិទ្យា Accenture បានរឹតបន្តឹងបុគ្គលិកទាំងអស់ពីការប្រើប្រាស់ ChatGPT ជុំវិញបញ្ហាសុវត្ថិភាពទិន្នន័យ។
យោងតាម CNN ការព្រួយបារម្ភនៃអាជីវកម្មទាំងនេះត្រូវបានបញ្ចប់ទាំងស្រុង។ នៅថ្ងៃទី 20 ខែមីនា chatbot របស់ OpenAI មានកំហុសដែលលាតត្រដាងទិន្នន័យអ្នកប្រើប្រាស់។ ទោះបីជាកំហុសត្រូវបានជួសជុលយ៉ាងឆាប់រហ័សក៏ដោយក៏ក្រុមហ៊ុនបានបង្ហាញថាឧបទ្ទវហេតុនេះបានប៉ះពាល់ដល់ 1.2% នៃអ្នកប្រើប្រាស់ ChatGPT Plus ។ ព័ត៌មានលេចធ្លាយរួមមានឈ្មោះពេញ អាសយដ្ឋានអ៊ីមែល អាសយដ្ឋានចេញវិក្កយបត្រ លេខកាតឥណទាន បួនខ្ទង់ចុងក្រោយ និងកាលបរិច្ឆេទផុតកំណត់កាត។
នៅថ្ងៃទី 31 ខែមីនា អាជ្ញាធរការពារទិន្នន័យរបស់ប្រទេសអ៊ីតាលី (Garante) បានចេញបម្រាមបណ្តោះអាសន្នលើ ChatGPT ដោយលើកឡើងពីការព្រួយបារម្ភអំពីឯកជនភាព បន្ទាប់ពី OpenAI បង្ហាញភាពងាយរងគ្រោះ។
លោក Mark McCreary សហប្រធាន ផ្នែកសុវត្ថិភាពទិន្នន័យ និងឯកជនភាពនៅក្រុមហ៊ុនច្បាប់ Fox Rothschild LLP បានប្រាប់ CNN ថា កង្វល់សុវត្ថិភាពជុំវិញ ChatGPT គឺមិននិយាយបំផ្លើសនោះទេ។ គាត់បានប្រដូច AI chatbot ទៅនឹង "ប្រអប់ខ្មៅ"។
ChatGPT ត្រូវបានបើកដំណើរការដោយ OpenAI ក្នុងខែវិច្ឆិកា ឆ្នាំ 2022 ហើយបានទាក់ទាញការចាប់អារម្មណ៍យ៉ាងឆាប់រហ័សសម្រាប់សមត្ថភាពរបស់ខ្លួនក្នុងការសរសេរអត្ថបទ តែងរឿង ឬអត្ថបទចម្រៀងដោយផ្តល់ឱ្យពួកគេ។ ក្រុមហ៊ុនបច្ចេកវិទ្យាយក្សដូចជា Google និង Microsoft ក៏បានដាក់ឱ្យដំណើរការឧបករណ៍ AI ដែលដំណើរការស្រដៀងគ្នានេះ ដំណើរការដោយគំរូភាសាធំៗដែលត្រូវបានបណ្តុះបណ្តាលលើហាងលក់ទិន្នន័យអនឡាញដ៏ធំ។
បន្ទាប់ពីការផ្លាស់ប្តូររបស់អ៊ីតាលី អាឡឺម៉ង់ក៏កំពុងពិចារណាហាមឃាត់ ChatGPT ផងដែរ។
លោក McCreay បានបន្ថែមថា នៅពេលដែលអ្នកប្រើប្រាស់បញ្ចូលព័ត៌មានទៅក្នុងឧបករណ៍ទាំងនេះ ពួកគេមិនដឹងថាវានឹងត្រូវប្រើប្រាស់យ៉ាងដូចម្តេចនោះទេ។ នេះជាការព្រួយបារម្ភសម្រាប់ក្រុមហ៊ុន ខណៈបុគ្គលិកកាន់តែច្រើនប្រើឧបករណ៍ដើម្បីជួយសរសេរអ៊ីមែលការងារ ឬកត់ចំណាំសម្រាប់ការប្រជុំ ដែលនាំឱ្យមានហានិភ័យខ្ពស់ក្នុងការលាតត្រដាងអាថ៌កំបាំងពាណិជ្ជកម្ម។
លោក Steve Mills នាយកផ្នែកក្រមសីលធម៌ AI នៅ Boston Consulting Group (BCG) បាននិយាយថា ក្រុមហ៊ុនមានការព្រួយបារម្ភអំពីបុគ្គលិកដែលបង្ហាញព័ត៌មានរសើបដោយចៃដន្យ។ ប្រសិនបើទិន្នន័យដែលមនុស្សបញ្ចូលកំពុងត្រូវបានប្រើដើម្បីបណ្តុះបណ្តាលឧបករណ៍ AI នេះ ពួកគេបានប្រគល់ការគ្រប់គ្រងទិន្នន័យទៅអ្នកផ្សេង។
យោងតាមគោលការណ៍ឯកជនភាពរបស់ OpenAI ក្រុមហ៊ុនអាចប្រមូលព័ត៌មាន និងទិន្នន័យផ្ទាល់ខ្លួនទាំងអស់ពីអ្នកប្រើប្រាស់សេវាកម្ម ដើម្បីកែលម្អគំរូ AI របស់ខ្លួន។ ពួកគេអាចប្រើប្រាស់ព័ត៌មាននេះដើម្បីកែលម្អ ឬវិភាគសេវាកម្មរបស់ពួកគេ ធ្វើការស្រាវជ្រាវ ទំនាក់ទំនងជាមួយអ្នកប្រើប្រាស់ និងបង្កើតកម្មវិធី និងសេវាកម្មថ្មីៗ។
គោលការណ៍ឯកជនភាពចែងថា OpenAI អាចផ្តល់ព័ត៌មានផ្ទាល់ខ្លួនដល់ភាគីទីបីដោយមិនចាំបាច់ជូនដំណឹងដល់អ្នកប្រើប្រាស់ឡើយ លុះត្រាតែតម្រូវដោយច្បាប់។ OpenAI ក៏មានឯកសារល័ក្ខខ័ណ្ឌនៃសេវាកម្មរបស់ខ្លួនដែរ ប៉ុន្តែក្រុមហ៊ុនដាក់ទំនួលខុសត្រូវជាច្រើនលើអ្នកប្រើប្រាស់ក្នុងការចាត់វិធានការសមស្របនៅពេលធ្វើអន្តរកម្មជាមួយឧបករណ៍ AI ។
ម្ចាស់របស់ ChatGPT បានបង្ហោះនៅលើប្លក់របស់ពួកគេអំពីវិធីសាស្រ្តរបស់ពួកគេដើម្បីសុវត្ថិភាព AI ។ ក្រុមហ៊ុនសង្កត់ធ្ងន់ថា ខ្លួនមិនប្រើប្រាស់ទិន្នន័យដើម្បីលក់សេវាកម្ម ផ្សាយពាណិជ្ជកម្ម ឬបង្កើតទម្រង់អ្នកប្រើប្រាស់ឡើយ។ ផ្ទុយទៅវិញ OpenAI ប្រើប្រាស់ទិន្នន័យដើម្បីធ្វើឱ្យម៉ូដែលរបស់វាកាន់តែមានប្រយោជន៍។ ឧទាហរណ៍ ការសន្ទនារបស់អ្នកប្រើប្រាស់នឹងត្រូវបានប្រើដើម្បីបណ្តុះបណ្តាល ChatGPT ។
គោលការណ៍ឯកជនភាពរបស់ ChatGPT ត្រូវបានចាត់ទុកថាមិនច្បាស់លាស់។
Google ដែលជាក្រុមហ៊ុននៅពីក្រោយ Bard AI មានការផ្តល់ឯកជនភាពបន្ថែមសម្រាប់អ្នកប្រើប្រាស់ AI របស់ខ្លួន។ ក្រុមហ៊ុននឹងជ្រើសរើសផ្នែកតូចមួយនៃការសន្ទនា និងប្រើប្រាស់ឧបករណ៍ស្វ័យប្រវត្តិដើម្បីលុបព័ត៌មានដែលអាចកំណត់អត្តសញ្ញាណផ្ទាល់ខ្លួន ដែលនឹងជួយកែលម្អ Bard ខណៈពេលដែលការពារភាពឯកជនរបស់អ្នកប្រើប្រាស់។
ការសន្ទនាគំរូនឹងត្រូវបានពិនិត្យដោយគ្រូបណ្តុះបណ្តាលមនុស្ស ហើយរក្សាទុករហូតដល់បីឆ្នាំ ដាច់ដោយឡែកពីគណនី Google របស់អ្នកប្រើប្រាស់។ Google ក៏រំលឹកអ្នកប្រើប្រាស់មិនឱ្យបញ្ចូលព័ត៌មានផ្ទាល់ខ្លួនអំពីខ្លួនពួកគេ ឬអ្នកផ្សេងទៀតនៅក្នុងការសន្ទនានៅលើ Bard AI ក្រុមហ៊ុនបច្ចេកវិទ្យាយក្សនេះសង្កត់ធ្ងន់ថាការសន្ទនាទាំងនេះនឹងមិនត្រូវបានប្រើសម្រាប់គោលបំណងផ្សាយពាណិជ្ជកម្មទេ ហើយនឹងប្រកាសអំពីការផ្លាស់ប្តូរនាពេលអនាគត។
Bard AI អនុញ្ញាតឱ្យអ្នកប្រើប្រាស់ជ្រើសរើសចេញពីការរក្សាទុកការសន្ទនាទៅកាន់គណនី Google របស់ពួកគេ ក៏ដូចជាពិនិត្យមើល ឬលុបការសន្ទនាតាមរយៈតំណ។ លើសពីនេះទៀត ក្រុមហ៊ុនមានការការពារដែលត្រូវបានរចនាឡើងដើម្បីការពារ Bard ពីការរួមបញ្ចូលព័ត៌មានផ្ទាល់ខ្លួននៅក្នុងការឆ្លើយតប។
Steve Mills និយាយថា ពេលខ្លះអ្នកប្រើប្រាស់ និងអ្នកអភិវឌ្ឍន៍គ្រាន់តែរកឃើញហានិភ័យសុវត្ថិភាពដែលលាក់នៅក្នុងបច្ចេកវិទ្យាថ្មីៗនៅពេលដែលវាយឺតពេល។ ឧទាហរណ៍ មុខងារបំពេញស្វ័យប្រវត្តិអាចបង្ហាញលេខសន្តិសុខសង្គមរបស់អ្នកប្រើប្រាស់ដោយចៃដន្យ។
លោក Mills បាននិយាយថា អ្នកប្រើប្រាស់មិនគួរដាក់អ្វីចូលទៅក្នុងឧបករណ៍ទាំងនេះ ដែលពួកគេមិនចង់ចែករំលែកជាមួយអ្នកដទៃនោះទេ។
ប្រភពតំណ
Kommentar (0)