หลังจากที่บริษัทสตาร์ทอัพ OpenAI เปิดตัวแอปพลิเคชัน AI ตัวแรก ChatGPT ในช่วงปลายปี 2022 ก็เกิดการแข่งขันกันพัฒนาแอปพลิเคชัน AI โดยเฉพาะ AI เชิงสร้างสรรค์ ซึ่งนำมาซึ่งความสะดวกสบายมากมายในทุกด้านของชีวิต อย่างไรก็ตาม สิ่งนี้ยังนำมาซึ่งความเสี่ยงมากมายอีกด้วย
การบุกรุกความเป็นส่วนตัว
ในช่วงไม่กี่ปีที่ผ่านมา องค์กรและบุคคลจำนวนมากประสบกับความสูญเสียเมื่ออาชญากรไซเบอร์ใช้ AI เพื่อสร้างคลิป วิดีโอ ที่ปลอมแปลงภาพและเสียงของบุคคลจริง ตัวอย่างหนึ่งคือกลอุบาย Deepfake
ตามรายงานการฉ้อโกงข้อมูลส่วนตัวที่เผยแพร่โดย Sumsub เมื่อปลายเดือนพฤศจิกายน 2023 การหลอกลวงผ่าน Deepfake ทั่วโลกเพิ่มขึ้น 10 เท่าในปี 2022-2023 ซึ่งเป็นช่วงที่แอปพลิเคชันปัญญาประดิษฐ์ได้รับความนิยมอย่างแพร่หลายทั่วโลก
Status Labs ระบุว่า Deepfakes ส่งผลกระทบอย่างมากต่อวัฒนธรรม ความเป็นส่วนตัว และชื่อเสียงส่วนบุคคล ข่าวและความสนใจเกี่ยวกับ Deepfakes ส่วนใหญ่เน้นไปที่สื่อลามกอนาจารของคนดัง สื่อลามกอนาจารเพื่อการแก้แค้น ข้อมูลเท็จ ข่าวปลอม การแบล็กเมล์ และการหลอกลวง ตัวอย่างเช่น ในปี 2019 บริษัทพลังงานแห่งหนึ่งในสหรัฐฯ ถูกหลอกลวงเงิน 243,000 ดอลลาร์โดยแฮกเกอร์ที่ปลอมแปลงภาพและเสียงของผู้บริหารบริษัทและขอให้พนักงานโอนเงินให้กับพันธมิตร
สำนักข่าวรอยเตอร์รายงานว่าในปี 2023 มีการแชร์วิดีโอและเสียง Deepfake ประมาณ 500,000 รายการในเครือข่ายโซเชียลทั่วโลก นอกจาก Deepfake เพื่อความสนุกสนานแล้ว ยังมีกลอุบายที่คนร้ายสร้างขึ้นเพื่อหลอกลวงชุมชนอีกด้วย จากแหล่งข่าว คาดว่าในปี 2022 การหลอกลวง Deepfake ทั่วโลกทำให้เกิดความสูญเสียสูงถึง 11 ล้านเหรียญสหรัฐ
ผู้เชี่ยวชาญด้านเทคโนโลยีหลายคนเตือนเกี่ยวกับผลกระทบเชิงลบของ AI รวมถึงสิทธิในทรัพย์สินทางปัญญาและความถูกต้องตามกฎหมาย และข้อพิพาทด้านทรัพย์สินทางปัญญาระหว่าง "ผลงาน" ที่สร้างขึ้นโดย AI ตัวอย่างเช่น บุคคลหนึ่งขอให้แอปพลิเคชัน AI วาดภาพที่มีธีมบางอย่าง แต่บุคคลอื่นกลับขอให้ AI ทำแบบเดียวกัน ส่งผลให้ภาพวาดมีความคล้ายคลึงกันมาก
สิ่งนี้มีแนวโน้มที่จะนำไปสู่ข้อพิพาทเกี่ยวกับความเป็นเจ้าของ อย่างไรก็ตาม จนถึงปัจจุบัน โลกยังไม่ได้มีการตัดสินใจเกี่ยวกับการรับรองลิขสิทธิ์สำหรับเนื้อหาที่สร้างโดย AI (การรับรองลิขสิทธิ์สำหรับบุคคลที่สั่งงาน AI สร้างสรรค์หรือบริษัทที่พัฒนาแอปพลิเคชัน AI)
ภาพที่สร้างจากแอปพลิเคชัน AI
ยากที่จะแยกแยะระหว่างของจริงและของปลอม
แล้วเนื้อหาที่สร้างโดย AI ละเมิดลิขสิทธิ์ได้หรือไม่? ในแง่ของเทคโนโลยี เนื้อหาที่สร้างโดย AI จะถูกสังเคราะห์ด้วยอัลกอริทึมจากข้อมูลที่ได้รับการฝึกอบรม ฐานข้อมูลเหล่านี้ถูกรวบรวมโดยนักพัฒนาแอปพลิเคชัน AI จากหลายแหล่ง โดยส่วนใหญ่มาจากฐานความรู้บนอินเทอร์เน็ต ผลงานเหล่านี้หลายชิ้นมีลิขสิทธิ์เป็นของเจ้าของ
เมื่อวันที่ 27 ธันวาคม 2023 The New York Times (สหรัฐอเมริกา) ฟ้อง OpenAI (ร่วมกับ ChatGPT) และ Microsoft โดยอ้างว่าบทความนับล้านบทความของพวกเขาถูกใช้เพื่อฝึกแชทบ็อต AI และแพลตฟอร์ม AI ของทั้งสองบริษัท หลักฐานก็คือมีเนื้อหาที่สร้างโดยแชทบ็อตตามคำขอของผู้ใช้ซึ่งเหมือนหรือคล้ายกับเนื้อหาของบทความ หนังสือพิมพ์ฉบับนี้ไม่สามารถเพิกเฉยได้เมื่อ "ทรัพย์สินทางปัญญา" ของพวกเขาถูกใช้โดยบริษัทเพื่อแสวงหากำไร
The New York Times เป็นหนังสือพิมพ์รายใหญ่ฉบับแรกของสหรัฐฯ ที่ยื่นฟ้องคดีลิขสิทธิ์ที่เกี่ยวข้องกับ AI เป็นไปได้ว่าหนังสือพิมพ์ฉบับอื่นๆ จะดำเนินคดีตามในอนาคต โดยเฉพาะอย่างยิ่งหลังจากที่ The New York Times ประสบความสำเร็จ
ก่อนหน้านี้ OpenAI ได้บรรลุข้อตกลงอนุญาตสิทธิ์ลิขสิทธิ์กับสำนักข่าว Associated Press ในเดือนกรกฎาคม 2023 และกับ Axel Springer ซึ่งเป็นผู้จัดพิมพ์ในเยอรมนีที่เป็นเจ้าของหนังสือพิมพ์ 2 ฉบับคือ Politico และ Business Insider ในเดือนธันวาคม 2023
นอกจากนี้ นักแสดงสาว Sarah Silverman ยังเข้าร่วมการฟ้องร้องในคดีความ 2 คดีในเดือนกรกฎาคม 2023 โดยกล่าวหาว่า Meta และ OpenAI ใช้บันทึกความทรงจำของเธอเป็นตำราฝึกหัดสำหรับโปรแกรม AI นักเขียนหลายคนยังแสดงความกังวลเมื่อมีการเปิดเผยว่าระบบ AI ได้ดูดซับหนังสือหลายหมื่นเล่มเข้าไปในฐานข้อมูลของพวกเขา ส่งผลให้นักเขียนอย่าง Jonathan Franzen และ John Grisham ฟ้องร้อง
ในขณะเดียวกัน บริการภาพถ่าย Getty Images ยังได้ฟ้องบริษัท AI แห่งหนึ่งด้วยข้อหาสร้างภาพขึ้นโดยอิงจากข้อความแจ้งเตือนอันเนื่องมาจากมีการใช้สื่อภาพที่มีลิขสิทธิ์ของบริษัทโดยไม่ได้รับอนุญาต
ผู้ใช้จะประสบปัญหาลิขสิทธิ์ได้หากใช้ "ผลงาน" ที่พวกเขาขอให้เครื่องมือ AI "สร้าง" อย่าง "ไม่ระมัดระวัง" ผู้เชี่ยวชาญแนะนำให้ใช้เครื่องมือ AI เพื่อค้นหา รวบรวมข้อมูล และเสนอแนะเพื่อใช้เป็นข้อมูลอ้างอิงเท่านั้น
ในทางกลับกัน แอปพลิเคชัน AI จะสร้างความสับสนให้กับผู้ใช้เมื่อไม่สามารถแยกแยะความจริงและความเท็จของเนื้อหาบางอย่างได้ สำนักพิมพ์และสำนักงานหนังสือพิมพ์อาจสับสนเมื่อได้รับต้นฉบับ นอกจากนี้ ครูยังประสบปัญหาในการทราบว่างานของนักเรียนใช้ AI หรือไม่
ชุมชนจะต้องระมัดระวังมากขึ้น เพราะไม่มีใครรู้ว่าอะไรจริงและอะไรปลอม ตัวอย่างเช่น คนทั่วไปจะตรวจจับได้ยากว่ารูปภาพถูก "แต่งเติม" หรือถูกแก้ไขโดย AI
จำเป็นต้องมีกฎหมายควบคุมการใช้ AI
ในขณะที่รอเครื่องมือแอปพลิเคชันที่สามารถตรวจจับการแทรกแซงของ AI หน่วยงานจัดการจำเป็นต้องมีกฎหมายที่ชัดเจนและเฉพาะเจาะจงเกี่ยวกับการใช้เทคโนโลยีนี้เพื่อสร้างเนื้อหาส่วนตัว กฎหมายจะต้องแสดงให้ทุกคนเห็นว่าเนื้อหาและผลงานถูก AI แทรกแซง เช่น การแนบลายน้ำตามค่าเริ่มต้นให้กับรูปภาพที่ถูก AI ปรับแต่ง
ที่มา: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm
การแสดงความคิดเห็น (0)