คณะกรรมการความปลอดภัยทางอิเล็กทรอนิกส์แห่งออสเตรเลีย (ESSC) ประเมินว่ารายงานของ Google เป็นข้อมูลเชิงลึกแรก ของโลก เกี่ยวกับวิธีการที่ผู้ใช้สามารถใช้เทคโนโลยีในทางที่ผิดเพื่อสร้างเนื้อหาที่เป็นอันตรายและผิดกฎหมาย
กรรมาธิการจูลี อินแมน แกรนต์ แห่งคณะกรรมการความมั่นคงทางไซเบอร์ กล่าวว่า นี่เป็นการเน้นย้ำถึงความสำคัญที่บริษัทต่างๆ ที่พัฒนาผลิตภัณฑ์ AI ต้องสร้างและทดสอบประสิทธิภาพของมาตรการป้องกันเพื่อป้องกันการผลิตเนื้อหาปลอมที่เป็นอันตราย
Google ใช้ฟีเจอร์การจับคู่ ซึ่งเป็นระบบอัตโนมัติที่จับคู่ภาพที่อัปโหลดใหม่กับภาพที่รู้จัก เพื่อระบุและลบเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็กที่สร้างโดย Gemini อย่างไรก็ตาม คณะกรรมการความปลอดภัยทางอิเล็กทรอนิกส์ของออสเตรเลียระบุว่า Google ไม่ได้ใช้ระบบเดียวกันนี้ในการลบเนื้อหาเกี่ยวกับการก่อการร้ายหรือความรุนแรงสุดโต่งที่สร้างโดย Gemini
ภายใต้กฎหมายปัจจุบันของออสเตรเลีย บริษัทเทคโนโลยีต้องส่งข้อมูลเกี่ยวกับความพยายามในการลดอันตรายให้แก่คณะกรรมการความปลอดภัยทางอิเล็กทรอนิกส์เป็นระยะ มิฉะนั้นจะต้องเผชิญกับบทลงโทษ
เมื่อไม่นานมานี้ บริษัทต่างๆ ถูกกำหนดให้รายงานข้อมูลต่อคณะกรรมการนี้สำหรับช่วงเวลาตั้งแต่เดือนเมษายน 2566 ถึงเดือนกุมภาพันธ์ 2567 คณะกรรมการความปลอดภัยทางอิเล็กทรอนิกส์แห่งออสเตรเลียได้ปรับ Telegram และ Twitter (ซึ่งต่อมาเปลี่ยนชื่อเป็น X) เนื่องจากมีข้อบกพร่องในการรายงานข้อมูล
X ได้ยื่นอุทธรณ์ค่าปรับจำนวน 610,500 ดอลลาร์ออสเตรเลีย (382,000 ดอลลาร์สหรัฐ) ไปแล้วครั้งหนึ่ง แต่คาดว่าแพลตฟอร์มโซเชียลมีเดียดังกล่าวจะยื่นอุทธรณ์อีกครั้ง Telegram ก็วางแผนที่จะยื่นอุทธรณ์ค่าปรับที่เรียกเก็บจากช่องดังกล่าวเช่นกัน
นับตั้งแต่แชทบอท ChatGPT จากบริษัท OpenAI ของสหรัฐฯ กลายเป็นที่รู้จักในวงกว้างเมื่อปลายปี 2022 หน่วยงานกำกับดูแลทั่วโลกต่างเรียกร้องให้มีมาตรการที่มีประสิทธิภาพมากขึ้น เพื่อป้องกันไม่ให้ผู้ไม่หวังดีนำ AI ไปใช้ในทางที่ผิด เช่น การยุยงให้เกิดการก่อการร้าย การฉ้อโกง การสร้างเนื้อหาลามกอนาจารปลอม และการกระทำการอื่นๆ ที่ไม่เหมาะสม
ที่มา: https://nhandan.vn/google-phan-mem-ai-gemini-bi-lam-dung-de-tao-noi-dung-khung-bo-gia-mao-post863325.html






การแสดงความคิดเห็น (0)