នៅក្នុងការអាប់ដេតថ្មីដែលបានចេញផ្សាយចំពោះគោលការណ៍ AI របស់ខ្លួន ក្រុមហ៊ុនមេរបស់ Google Alphabet បានគូសបញ្ជាក់ពីរបៀបដែលខ្លួនគ្រោងនឹងប្រើប្រាស់ AI នាពេលអនាគត។ គួរកត់សម្គាល់ថា វាបានលុបចោលការសន្យាមិនប្រើប្រាស់ AI ដើម្បីបង្កើតអាវុធ ឧបករណ៍ឃ្លាំមើល ឬ "បច្ចេកវិទ្យាដែលអាចបង្កឱ្យមានគ្រោះថ្នាក់យ៉ាងទូលំទូលាយ" ។
បន្ទាត់ក្រហមរបស់ Google នៅលើ AI
ពាក្យថាបន្ទាត់ក្រហម AI របស់ Google បានលេចឡើងជាលើកដំបូងនៅក្នុងឆ្នាំ 2018 នៅពេលដែលបុគ្គលិកធ្វើការតវ៉ាចំពោះគម្រោង AI របស់ក្រុមហ៊ុន Maven ដែលជាការសហការជាមួយ ក្រសួងការពារជាតិ សហរដ្ឋអាមេរិក។ នៅពេលនោះ បុគ្គលិក Google ជាង 4,000 នាក់បានចុះហត្ថលេខាលើញត្តិដើម្បីបញ្ចប់គម្រោងនេះ ហើយទាមទារឱ្យក្រុមហ៊ុនមិនដែល "បង្កើតបច្ចេកវិទ្យាសម្រាប់សង្គ្រាម" ។
បន្ទាប់មក Google មិនបានបន្តកិច្ចសន្យារបស់ខ្លួនដើម្បីបង្កើតឧបករណ៍ AI សម្រាប់មន្ទីរបញ្ចកោណនោះទេ។ ក្រុមហ៊ុនក៏បានគូសបន្ទាត់ក្រហមដោយប្រកាសថា "កម្មវិធីមិនធ្វើតាម" នៃ AI រួមទាំងអាវុធ និងបច្ចេកវិទ្យាដែលប្រមូល ឬប្រើប្រាស់ព័ត៌មានសម្រាប់ការឃ្លាំមើលដែលបំពានលើបទដ្ឋានដែលទទួលយកជាអន្តរជាតិ ក៏នឹងមិនត្រូវបានប្រើដោយ Google ដែរ។ បច្ចេកវិជ្ជាដែលបង្ក ឬមានសក្ដានុពលក្នុងការបង្កគ្រោះថ្នាក់ដល់សាធារណជន ឬបំពានគោលការណ៍ច្បាប់អន្តរជាតិ និង សិទ្ធិមនុស្ស ដែលទទួលយកបានយ៉ាងទូលំទូលាយ ក៏នឹងមិនត្រូវបានប្រើប្រាស់ដែរ។
កម្មវិធី Google មួយចំនួននៅលើ iPhone
ការសម្រេចចិត្តគូសបន្ទាត់ក្រហមលើ AI ជាមួយនឹងអាវុធបានរារាំង Google ពីការចូលរួមក្នុងកិច្ចព្រមព្រៀង យោធា ដែលបានចុះហត្ថលេខាដោយក្រុមហ៊ុនបច្ចេកវិទ្យាយក្សផ្សេងទៀត រួមទាំង Amazon និង Microsoft ផងដែរ។
ទោះបីជាយ៉ាងណាក៏ដោយ នៅចំពោះមុខការផ្លាស់ប្តូរដ៏ធំបែបនេះនៅក្នុងការប្រណាំង AI ក្រុមហ៊ុន Google បានសម្រេចចិត្តដកការសន្យារបស់ខ្លួន។ នេះបានបង្កឱ្យមានភាពចម្រូងចម្រាសជាច្រើនមិនត្រឹមតែនៅក្នុង Google ប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងបង្ហាញពីការផ្លាស់ប្តូរដ៏សំខាន់របស់ក្រុមហ៊ុនបច្ចេកវិទ្យា Silicon Valley នៅក្នុងឧស្សាហកម្មការពារជាតិផងដែរ។
Google ត្រូវបានបែងចែកខាងក្នុង
យោងតាម Business Insider ការធ្វើបច្ចុប្បន្នភាពលើគោលការណ៍ និងក្រមសីលធម៌ AI បានបង្កឱ្យមានប្រតិកម្មយ៉ាងខ្លាំងពីបុគ្គលិក Google ។ បុគ្គលិកបានសម្តែងការខកចិត្តរបស់ពួកគេនៅលើផ្ទាំងសារផ្ទៃក្នុង។ meme បង្ហាញនាយកប្រតិបត្តិ Sundar Pichai សួរម៉ាស៊ីនស្វែងរករបស់ Google ជាមួយនឹងសំណួរ "តើធ្វើដូចម្តេចដើម្បីក្លាយជាអ្នកម៉ៅការអាវុធ?" បានទទួលការចាប់អារម្មណ៍យ៉ាងខ្លាំង។
បុគ្គលិកម្នាក់ទៀតបានបង្កើត meme ដោយសួរថា "តើយើងជាមនុស្សអាក្រក់សម្រាប់ការដកបម្រាម AI សម្រាប់អាវុធ និងការឃ្លាំមើលមែនទេ?" ក្រុមហ៊ុនមានបុគ្គលិកជាង 180,000 នាក់។ ប្រហែលជានៅតែមានសំឡេងគាំទ្រការសម្រេចចិត្តរបស់ Google ក្នុងការធ្វើការកាន់តែជិតស្និទ្ធជាមួយរដ្ឋាភិបាលសហរដ្ឋអាមេរិក និងអតិថិជនយោធា និងការពារជាតិរបស់ខ្លួន។
ការវែកញែករបស់ Google
អ្នកនាំពាក្យរបស់ Google មិនបានឆ្លើយតបភ្លាមៗចំពោះសំណើសុំការអត្ថាធិប្បាយលើការដក “ការសន្យារបស់ AI” នោះទេ។ ទោះបីជាយ៉ាងណាក៏ដោយ ប្រធាន AI លោក Demis Hassabis បាននិយាយថា គោលការណ៍ណែនាំកំពុងវិវត្តនៅក្នុងពិភពផ្លាស់ប្តូរ ហើយថា AI នឹង "ការពារសន្តិសុខជាតិ"។
នៅក្នុងការបង្ហោះប្លក់របស់ក្រុមហ៊ុន Hassabis និង James Manyika អនុប្រធានជាន់ខ្ពស់ផ្នែកបច្ចេកវិទ្យា និងសង្គមរបស់ Google បាននិយាយថា នៅពេលដែលការប្រកួតប្រជែងជាសកលសម្រាប់ភាពជាអ្នកដឹកនាំក្នុង AI កាន់តែខ្លាំង Google ជឿជាក់ថា AI គួរតែត្រូវបានដឹកនាំដោយសេរីភាព សមភាព និងការគោរពសិទ្ធិមនុស្ស។
ពួកគេបានបន្ថែមថា "យើងជឿថាក្រុមហ៊ុន រដ្ឋាភិបាល និងអង្គការចែករំលែកតម្លៃ ហើយគួរតែធ្វើការរួមគ្នាដើម្បីបង្កើត AI ដែលអាចការពារមនុស្ស ជំរុញកំណើនពិភពលោក និងគាំទ្រសន្តិសុខជាតិ"។
នាយកប្រតិបត្តិ Google ពីរនាក់បាននិយាយថា មនុស្សរាប់ពាន់លាននាក់ប្រើប្រាស់ AI ក្នុងជីវិតប្រចាំថ្ងៃរបស់ពួកគេ។ បញ្ញាសិប្បនិម្មិតបានក្លាយជាបច្ចេកវិទ្យាគោលបំណងទូទៅ ដែលជាវេទិកាដែលអង្គការ និងបុគ្គលរាប់មិនអស់ប្រើដើម្បីបង្កើតកម្មវិធី។ AI បានផ្លាស់ប្តូរពីប្រធានបទស្រាវជ្រាវពិសេសនៅក្នុងមន្ទីរពិសោធន៍ ទៅជាបច្ចេកវិទ្យាដែលនៅគ្រប់ទីកន្លែងដូចជាទូរសព្ទដៃ និងអ៊ីនធឺណិត។ ដូច្នេះ "ពាក្យសម្បថ AI" របស់ Google ចាប់ពីឆ្នាំ 2018 ចាំបាច់ត្រូវធ្វើបច្ចុប្បន្នភាពទៅតាមនោះ។
Alphabet បាននិយាយថា ខ្លួនគ្រោងនឹងចំណាយប្រាក់ 75 ពាន់លានដុល្លារនៅឆ្នាំក្រោយ ដែលភាគច្រើនដើម្បីបង្កើតសមត្ថភាព AI និងហេដ្ឋារចនាសម្ព័ន្ធ។
ប្រភព៖ https://thanhnien.vn/google-rut-lai-loi-hua-khong-dung-ai-cho-quan-su-185250206161804981.htm
Kommentar (0)