การเคลื่อนไหวดังกล่าวเกิดขึ้นในขณะที่บริษัทปัญญาประดิษฐ์ถูกกล่าวหาว่าขโมยเนื้อหาจากผู้จัดพิมพ์เพื่อฝึกปัญญาประดิษฐ์ หรือสรุปข้อมูล รวมถึงบทความที่มีลิขสิทธิ์ เพื่อตอบสนองต่อผู้ใช้โดยไม่ได้จ่ายเงินหรือแม้แต่ขออนุญาตด้วยซ้ำ
ภาพ: รอยเตอร์ส
Reddit กล่าวว่าจะอัปเดต Robots Exclusion Protocol หรือ "robots.txt" ซึ่งเป็นมาตรฐานที่ได้รับการยอมรับอย่างกว้างขวางในการกำหนดว่าส่วนใดของเว็บไซต์ที่ได้รับอนุญาตให้รวบรวมได้
บริษัทดังกล่าวยังกล่าวอีกว่าจะยังคงรักษาการจำกัดอัตรา ซึ่งเป็นเทคนิคที่ใช้ในการควบคุมจำนวนคำขอจากหน่วยงานใดหน่วยงานหนึ่ง และจะบล็อกบอทและโปรแกรมรวบรวมข้อมูลที่ไม่รู้จักจากการรวบรวมข้อมูลบนเว็บไซต์ของบริษัท
Robots.txt เป็นเครื่องมือสำคัญที่ผู้จัดพิมพ์ รวมถึงองค์กรข่าว ใช้เพื่อป้องกันไม่ให้บริษัทเทคโนโลยีทำการรวบรวมข้อมูลเนื้อหาอย่างผิดกฎหมาย เพื่อฝึก AI หรือสร้างบทสรุปเพื่อตอบคำถามการค้นหาบางอย่าง
เมื่อสัปดาห์ที่แล้ว บริษัทสตาร์ทอัพด้านการอนุญาตให้ใช้เนื้อหาอย่าง TollBit เปิดเผยในรายงานว่าบริษัท AI บางแห่งกำลังหลีกเลี่ยงกฎเกณฑ์เพื่อรวบรวมเนื้อหาบนเว็บไซต์ของผู้เผยแพร่
เรื่องนี้เกิดขึ้นหลังจากการสืบสวนของ Wired พบว่า Perplexity ซึ่งเป็นบริษัทสตาร์ทอัพที่ให้บริการค้นหาด้วย AI อาจละเมิดกฎในการบล็อกเว็บครอว์เลอร์ผ่านทาง robots.txt
ก่อนหน้านี้ในเดือนมิถุนายน ผู้จัดพิมพ์สื่อ Forbes ยังได้กล่าวหา Perplexity ว่าลอกเลียนบทความสืบสวนของตน เพื่อนำไปใช้ในระบบ AI เชิงสร้างสรรค์โดยไม่ได้ระบุชื่อ
Reddit กล่าวเมื่อวันอังคารว่านักวิจัยและองค์กรต่างๆ เช่น Internet Archive จะยังคงสามารถเข้าถึงเนื้อหาได้เพื่อวัตถุประสงค์ที่ไม่ใช่เชิงพาณิชย์
ฮวงไห่ (ตามรายงานของรอยเตอร์)
ที่มา: https://www.congluan.vn/reddit-cap-nhat-giao-thuc-ngan-chan-ai-danh-cap-noi-dung-post300804.html
การแสดงความคิดเห็น (0)