เนื้อหา AI ที่ทำให้เข้าใจผิด ได้แก่ ข้อเท็จจริงที่ถูกแต่งขึ้น คำแนะนำ ทางการแพทย์ และการหลอกลวงเกี่ยวกับการเสียชีวิตของคนดัง ซึ่งทำให้เกิดความกังวลใหม่ๆ ว่าเทคโนโลยีดังกล่าวอาจทำให้ปัญหาข้อมูลเท็จทางออนไลน์แย่ลงไปอีก
ความกังวลเกี่ยวกับเว็บไซต์ลอยน้ำที่ใช้ AI เพื่อเผยแพร่ข่าวปลอมได้กลายเป็นความจริงแล้ว ภาพประกอบ: GI
รายงานทั้งสองฉบับเผยแพร่แยกกันโดย NewsGuard ซึ่งเป็นบริษัทที่ติดตามข้อมูลเท็จทางออนไลน์ และ ShadowDragon ซึ่งเป็นบริษัทที่จัดหาทรัพยากรและการฝึกอบรมสำหรับการสืบสวนทางดิจิทัล
“ผู้อ่านเริ่มไม่ไว้วางใจแหล่งข่าวมากขึ้นเรื่อยๆ ส่วนหนึ่งเป็นเพราะพวกเขาแยกแยะไม่ออกระหว่างแหล่งข่าวที่น่าเชื่อถือกับแหล่งข่าวที่ไม่น่าเชื่อถือ” สตีเวน บริลล์ ซีอีโอของ NewsGuard กล่าวในแถลงการณ์ “เว็บไซต์ที่สร้างโดย AI ระลอกใหม่นี้จะยิ่งทำให้ผู้อ่านรู้ได้ยากขึ้นว่าใครเป็นผู้นำเสนอข่าว ซึ่งยิ่งบั่นทอนความน่าเชื่อถือมากขึ้นไปอีก”
NewsGuard ระบุเว็บไซต์ 125 แห่ง ซึ่งมีตั้งแต่ข่าวสารไปจนถึงข้อมูลไลฟ์สไตล์ และเผยแพร่เป็น 10 ภาษา โดยมีเนื้อหาที่เขียนโดยใช้เครื่องมือ AI เป็นหลักหรือทั้งหมด
ไซต์ดังกล่าวรวมถึงพอร์ทัลด้านสุขภาพซึ่ง NewsGuard ระบุว่าได้เผยแพร่บทความที่สร้างด้วย AI มากกว่า 50 บทความที่ให้คำแนะนำทางการแพทย์
NewsGuard กล่าวว่าเว็บไซต์ต่างๆ มักเต็มไปด้วยโฆษณา ซึ่งชี้ให้เห็นว่าเนื้อหาที่ไม่ถูกต้องนั้นถูกสร้างขึ้นเพื่อล่อให้เจ้าของเว็บไซต์คลิกโฆษณา ซึ่งมักจะไม่เปิดเผยตัวตนเลย
ShadowDragon ยังพบเนื้อหาที่ไม่ถูกต้องบนเว็บไซต์และโซเชียลมีเดีย รวมถึงบน Instagram และรีวิวบน Amazon บริษัทยังชี้ให้เห็นถึงบัญชี Instagram หลายบัญชีที่ดูเหมือนจะใช้ ChatGPT หรือเครื่องมือ AI อื่นๆ เพื่อเขียนคำอธิบายใต้รูปภาพและ วิดีโอ
นักวิจัยพยายามค้นหาตัวอย่างที่บิดเบือนข้อมูลอย่างชัดเจนและคำตอบสำเร็จรูปที่มักสร้างขึ้นโดยเครื่องมือ AI เพื่อค้นหาตัวอย่าง บางเว็บไซต์ถึงกับล้มเหลวในการลบข้อมูลที่คำเตือนเนื้อหา AI สร้างขึ้น หลังจากถูกขอให้เขียนบทความที่มีข้อมูลที่บิดเบือนหรือเนื้อหาที่เป็นอันตราย
ShadowDragon พบข้อความดังกล่าวบนเครือข่ายสังคมออนไลน์ LinkedIn, ในโพสต์บน Twitter และบนเครือข่ายสังคมอื่นๆ อีกมากมาย โพสต์บน Twitter บางโพสต์ถูกเผยแพร่โดยบอท เช่น ReplyGPT ซึ่งจะตอบกลับความคิดเห็นของผู้ใช้โดยอัตโนมัติ
Hoang Hai (อ้างอิงจาก NewsGuard, NYT)
แหล่งที่มา
การแสดงความคิดเห็น (0)