ในการอัปเดตหลักการ AI ฉบับล่าสุด Alphabet บริษัทแม่ของ Google ได้ระบุถึงแผนการนำ AI มาใช้ในอนาคต ที่สำคัญคือ ได้ยกเลิกคำมั่นสัญญาที่จะไม่ใช้ AI ในการสร้างอาวุธ เครื่องมือเฝ้าระวัง หรือ "เทคโนโลยีที่อาจก่อให้เกิดอันตรายในวงกว้าง"
เส้นแดงของ Google ในเรื่อง AI
คำว่า "เส้นแดง" ของ AI ของ Google ปรากฏขึ้นครั้งแรกในปี 2018 เมื่อพนักงานประท้วงโครงการ AI Maven ของบริษัท ซึ่งเป็นโครงการความร่วมมือกับ กระทรวงกลาโหม สหรัฐฯ ในขณะนั้น พนักงาน Google กว่า 4,000 คนได้ลงนามในคำร้องเพื่อยุติโครงการนี้และเรียกร้องให้บริษัทไม่ "สร้างเทคโนโลยีเพื่อสงคราม"
ต่อมา Google ก็ไม่ได้ต่อสัญญาสร้างเครื่องมือ AI ให้กับกระทรวงกลาโหมสหรัฐฯ (เพนตากอน) บริษัทยังได้ขีดเส้นแดงไว้ด้วย โดยประกาศว่า Google จะไม่นำ "การประยุกต์ใช้ AI ที่ไม่เป็นไปตามกฎหมาย" มาใช้ ซึ่งรวมถึงอาวุธและเทคโนโลยีที่รวบรวมหรือใช้ข้อมูลเพื่อการเฝ้าระวังที่ละเมิดบรรทัดฐานที่ยอมรับในระดับสากล มาใช้ เทคโนโลยีที่ก่อให้เกิดหรือมีแนวโน้มที่จะก่อให้เกิดอันตรายต่อสาธารณะ หรือละเมิดหลักการทางกฎหมายระหว่างประเทศและ สิทธิมนุษยชนที่เป็นที่ ยอมรับอย่างกว้างขวาง มาใช้เช่นกัน
แอป Google บางตัวบน iPhone
การตัดสินใจกำหนดเส้นแบ่งชัดเจนในการใช้ AI กับอาวุธทำให้ Google ไม่สามารถเข้าร่วมในข้อตกลง ทางทหาร ที่ลงนามโดยยักษ์ใหญ่ด้านเทคโนโลยีรายอื่นๆ รวมถึง Amazon และ Microsoft ได้
อย่างไรก็ตาม ท่ามกลางการเปลี่ยนแปลงครั้งใหญ่ในวงการ AI กูเกิลจึงตัดสินใจถอนคำมั่นสัญญา เรื่องนี้ก่อให้เกิดข้อถกเถียงมากมาย ไม่เพียงแต่ภายในกูเกิลเท่านั้น แต่ยังแสดงให้เห็นถึงการเปลี่ยนแปลงครั้งสำคัญของบริษัทเทคโนโลยีในซิลิคอนแวลลีย์ในอุตสาหกรรมป้องกันประเทศอีกด้วย
Google มีการแบ่งแยกภายใน
สำนักข่าว Business Insider รายงานว่า การปรับปรุงหลักการและจริยธรรมของ AI ก่อให้เกิดกระแสต่อต้านอย่างรุนแรงจากพนักงาน Google โดยพนักงานได้แสดงความไม่พอใจผ่านกระดานข้อความภายในองค์กร มีมีมที่แสดงให้เห็น Sundar Pichai ซีอีโอของบริษัท กำลังสอบถามข้อมูลในเครื่องมือค้นหาของ Google ด้วยคำถามที่ว่า "จะเป็นผู้รับเหมาอาวุธได้อย่างไร" ได้รับความสนใจอย่างมาก
พนักงานอีกรายหนึ่งสร้างมีมขึ้นมาถามว่า "เราคือผู้ร้ายที่ยกเลิกการห้ามใช้ AI สำหรับอาวุธและการสอดแนมหรือเปล่า" บริษัทมีพนักงานมากกว่า 180,000 คน อาจยังมีเสียงสนับสนุนการตัดสินใจของ Google ที่จะทำงานร่วมกับรัฐบาลสหรัฐฯ และลูกค้าทางทหารและกลาโหมอย่างใกล้ชิดมากขึ้น
เหตุผลของ Google
โฆษกของ Google ยังไม่ได้ตอบกลับคำขอแสดงความคิดเห็นเกี่ยวกับการถอน "คำสัญญาด้าน AI" ในทันที อย่างไรก็ตาม เดมิส ฮัสซาบิส หัวหน้าฝ่าย AI กล่าวว่าแนวทางปฏิบัติดังกล่าวกำลังพัฒนาไปตามโลกที่เปลี่ยนแปลงไป และ AI จะ "ปกป้องความมั่นคงของชาติ"
ในโพสต์บล็อกของบริษัท Hassabis และ James Manyika รองประธานอาวุโสฝ่ายเทคโนโลยีและสังคมของ Google กล่าวว่า ในขณะที่การแข่งขันเพื่อความเป็นผู้นำในด้าน AI ทั่วโลกทวีความรุนแรงมากขึ้น Google เชื่อว่า AI ควรได้รับการชี้นำโดยเสรีภาพ ความเท่าเทียม และการเคารพสิทธิมนุษยชน
“เราเชื่อว่าบริษัท รัฐบาล และองค์กรต่างๆ มีค่านิยมร่วมกันและควรทำงานร่วมกันเพื่อสร้าง AI ที่สามารถปกป้องผู้คน ขับเคลื่อนการเติบโตระดับโลก และสนับสนุนความมั่นคงของชาติ” พวกเขากล่าวเสริม
ผู้บริหารระดับสูงของ Google สองท่านกล่าวว่ามีผู้คนหลายพันล้านคนใช้ AI ในชีวิตประจำวัน ปัญญาประดิษฐ์ได้กลายเป็นเทคโนโลยีอเนกประสงค์ เป็นแพลตฟอร์มที่องค์กรและบุคคลจำนวนมากใช้สร้างแอปพลิเคชัน AI ได้เปลี่ยนจากหัวข้อวิจัยเฉพาะทางในห้องทดลองไปสู่เทคโนโลยีที่แพร่หลายเช่นเดียวกับโทรศัพท์มือถือและอินเทอร์เน็ต ดังนั้น “คำสาบาน AI” ของ Google ตั้งแต่ปี 2018 จึงจำเป็นต้องได้รับการปรับปรุงให้สอดคล้องกัน
Alphabet กล่าวว่ามีแผนที่จะใช้จ่ายเงิน 75,000 ล้านดอลลาร์ในปีหน้า โดยส่วนใหญ่จะใช้เพื่อพัฒนาความสามารถและโครงสร้างพื้นฐานด้าน AI
ที่มา: https://thanhnien.vn/google-rut-lai-loi-hua-khong-dung-ai-cho-quan-su-185250206161804981.htm
การแสดงความคิดเห็น (0)