การเคลื่อนไหวดังกล่าวเกิดขึ้นในขณะที่บริษัทปัญญาประดิษฐ์ถูกกล่าวหาว่าขโมยเนื้อหาจากผู้จัดพิมพ์เพื่อฝึก AI หรือสรุปข้อมูล รวมถึงบทความที่มีลิขสิทธิ์ เพื่อตอบกลับผู้ใช้โดยไม่ได้จ่ายเงินหรือแม้แต่ขออนุญาต
ภาพ : รอยเตอร์ส
Reddit กล่าวว่าจะทำการอัปเดต Robots Exclusion Protocol หรือ "robots.txt" ซึ่งเป็นมาตรฐานที่ได้รับการยอมรับอย่างกว้างขวางในการกำหนดว่าส่วนใดของเว็บไซต์ที่อนุญาตให้รวบรวมได้
บริษัทยังกล่าวอีกว่าจะยังคงรักษาการจำกัดอัตรา ซึ่งเป็นเทคนิคที่ใช้เพื่อควบคุมจำนวนคำขอจากหน่วยงานใดหน่วยงานหนึ่ง และจะบล็อกบอทและโปรแกรมรวบรวมข้อมูลที่ไม่รู้จักไม่ให้รวบรวมข้อมูลบนเว็บไซต์ของบริษัท
Robots.txt เป็นเครื่องมือสำคัญที่ผู้จัดพิมพ์รวมไปถึงองค์กรข่าวใช้เพื่อป้องกันไม่ให้บริษัทเทคโนโลยีทำการขูดข้อมูลเนื้อหาอย่างผิดกฎหมายเพื่อฝึก AI หรือสร้างบทสรุปเพื่อตอบคำถามการค้นหาบางอย่าง
เมื่อสัปดาห์ที่แล้ว บริษัทสตาร์ทอัพด้านการอนุญาตสิทธิ์เนื้อหา TollBit เปิดเผยในรายงานว่า บริษัท AI บางแห่งกำลังหลีกเลี่ยงกฎเกณฑ์เพื่อรวบรวมเนื้อหาบนเว็บไซต์ของผู้เผยแพร่
เรื่องนี้เกิดขึ้นหลังจากการสืบสวนของ Wired พบว่าบริษัทสตาร์ทอัพด้านการค้นหาด้วย AI อย่าง Perplexity อาจฝ่าฝืนกฎในการบล็อกเว็บครอว์เลอร์ผ่านทาง robots.txt
ก่อนหน้านี้ในเดือนมิถุนายน ผู้จัดพิมพ์สื่อ Forbes ยังได้กล่าวหาบริษัท Perplexity ว่าลอกเลียนบทความที่ใช้ในการสืบสวน เพื่อใช้ในระบบ AI เชิงสร้างสรรค์โดยไม่ได้ระบุชื่อ
Reddit กล่าวเมื่อวันอังคารว่านักวิจัยและองค์กรต่าง ๆ เช่น Internet Archive จะยังคงสามารถเข้าถึงเนื้อหาของเว็บไซต์ได้เพื่อวัตถุประสงค์ที่ไม่ใช่เชิงพาณิชย์
ฮวงไห่ (ตามรายงานของรอยเตอร์)
ที่มา: https://www.congluan.vn/reddit-cap-nhat-giao-thuc-ngan-chan-ai-danh-cap-noi-dung-post300804.html
การแสดงความคิดเห็น (0)