08:22 น. 09/12/2023
เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังสร้างอันตรายที่น่าตกใจให้กับชุมชนโซเชียลผ่านเทคนิคการหลอกลวงที่ซับซ้อนมากขึ้นเรื่อยๆ
เทคโนโลยี “Deepfake” ที่พัฒนาขึ้นใหม่ล่าสุดกำลังดึงดูดผู้ใช้จำนวนมาก โดยเฉพาะผู้หญิง ที่ต้องการรวมรูปถ่ายของตนเองกับภาพนางงาม นางแบบ แฟชั่น ... เพื่อให้ดูเหมือนจริง โดยไม่รู้ตัวว่าเบื้องหลังนั้นมีความเสี่ยงที่ไม่สามารถคาดเดาได้
ล่าสุดมีคนรู้จักของฉันแชร์ลิงก์ วิดีโอ พร้อมคำบรรยายว่า “หนังเปิดโปง” ของดาราสาวชื่อดัง เมื่อคลิกลิงก์ดังกล่าว ผู้คนต่างประหลาดใจเมื่อเห็นหน้าของนักแสดงสาวในชุดเซ็กซี่และ “มีความสัมพันธ์ลึกซึ้ง” กับผู้ชายคนหนึ่ง ผู้เชี่ยวชาญด้านเทคโนโลยีกล่าวว่านี่ไม่ใช่ภาพยนตร์จริง แต่เป็นเพียงการหลอกลวงทางเทคโนโลยีที่ใช้เทคโนโลยี “ดีปเฟก” เพื่อสร้างภาพลักษณ์ของบุคคลอื่น
รูปภาพที่สร้างโดย AI ของผู้ใช้ ภาพจากอินเทอร์เน็ต |
ผู้เชี่ยวชาญรายนี้ยังได้แจ้งด้วยว่าในช่วง 10 วันที่ผ่านมา มีแนวโน้มบนโซเชียลเน็ตเวิร์กในการส่งรูปภาพบุคคลไปยังซอฟต์แวร์แอปพลิเคชันปัญญาประดิษฐ์ เพื่อให้ได้ภาพที่ "สวยงามและสมจริงมาก" คนหนุ่มสาวจำนวนมากชื่นชอบสิ่งนี้จริงๆ ถึงขนาดสั่งให้กันและกันเลือกซอฟต์แวร์ที่ฉลาดกว่า ซึ่งสามารถรวมรูปภาพที่สวยงามกว่าได้ เช่น นักแสดง นางแบบชื่อดัง... ซอฟต์แวร์แอปพลิเคชันบางตัวยังอนุญาตให้รวมรูปภาพเป็นวิดีโอได้ด้วย "อย่างไรก็ตาม ไม่มีใครสามารถคาดเดาอันตรายที่ซ่อนอยู่เบื้องหลังเกมนี้ได้ พูดง่ายๆ ก็คือ วันหนึ่งคุณจะเห็นภาพตัวเองในร่างเปลือยเซ็กซี่" ผู้เชี่ยวชาญรายดังกล่าวเตือน
เมื่อตรวจสอบข้อมูลย้อนหลัง จะเห็นว่าเทคโนโลยี “Deepfake” ได้รับการพัฒนาขึ้นโดยใช้แพลตฟอร์มการเรียนรู้ของเครื่อง โดยใช้โค้ดโอเพ่นซอร์สของ Google คำว่า “Deepfake” เป็นการผสมคำระหว่าง “การเรียนรู้เชิงลึก” และ “ปลอม” ซึ่งหมายถึงการเรียนรู้เพื่อสร้างการจำลอง เทคโนโลยีนี้จะสแกนวิดีโอและภาพเหมือนของผู้ใช้รายหนึ่ง จากนั้นผสานเข้ากับวิดีโอหรือภาพถ่ายอื่นๆ เพื่อสร้างภาพถ่ายหรือคลิป ด้วยการใช้คุณสมบัติอัจฉริยะของ AI เทคโนโลยีนี้สามารถแทนที่รายละเอียดการระบุตัวตนพื้นฐานบนใบหน้าของมนุษย์ เช่น ตา ปาก จมูก รวมถึงความเร็วของการเคลื่อนไหวของใบหน้า เสียงพูด เพื่อสร้างสำเนาที่แทบจะเหมือนจริง ยิ่งมีข้อมูลภาพต้นฉบับในกระบวนการนี้มากเท่าไร ฟีเจอร์ AI ก็จะเรียนรู้และสร้างใบหน้าและภาพปลอมที่เหมือนกับบุคคลจริงได้ง่ายขึ้นเท่านั้น
ด้วยการพัฒนาอย่างรวดเร็วของเทคโนโลยี “Deepfake” จึงแพร่กระจายอย่างรวดเร็วไปสู่หลายด้านของชีวิต ไม่ว่าจะเป็นการช่วยให้คนๆ หนึ่งเลือกทรงผมที่เหมาะกับตัวเอง หรือการออกแบบชุดบางชุด เป้าหมายของการประยุกต์ใช้เทคโนโลยีนี้จึงเป็นไปในเชิงบวกและได้รับการชื่นชมจากผู้ใช้จำนวนมาก อย่างไรก็ตาม อีกด้านหนึ่งของปัญหาคือโอกาสที่บุคคลและอาชญากรจะใช้มันเพื่อจุดประสงค์ที่ผิด
ดังนั้น ผู้ใช้ที่ให้รูปภาพหรือวิดีโอของตนแก่ซอฟต์แวร์แก้ไขภาพออนไลน์ มักจะตกเป็นเหยื่อของความบันเทิงราคาถูก เช่น การแก้ไขภาพเปลือย การกระตุ้นทางเพศ เป็นต้น ผู้ที่แก้ไขภาพอาจสร้างความบันเทิงให้กับตัวเองเท่านั้น แต่พวกเขาก็สามารถใช้ภาพปลอมเหล่านี้เพื่อโจมตีผู้อื่น เยาะเย้ย หมิ่นประมาท หรือแบล็กเมล์ ดูหมิ่นเกียรติของผู้อื่น หรือแม้แต่สร้างความสับสนและทำลายความสัมพันธ์ของผู้ที่เกี่ยวข้องได้อีกด้วย
ประการที่สอง อาชญากรสามารถใช้ AI เพื่อสร้างตัวละครปลอม ทำการฉ้อโกงออนไลน์ เช่น โทรหาญาติและเพื่อนเพื่อขอยืมเงิน ขโมยข้อมูลเพื่อจุดประสงค์ที่ผิด ผู้ร้ายสามารถแอบอ้างเป็นผู้ใช้เพื่อเข้าสู่ระบบแอปพลิเคชันเทคโนโลยีออนไลน์ ซื้อและขายของออนไลน์ ผ่านบัตรธนาคาร... เพื่อยึดทรัพย์สิน จากนั้น กลุ่มฉ้อโกง กรรโชกทรัพย์ และการก่อการร้ายสามารถใช้บัญชีเสมือนที่มีตัวละครปลอมเพื่อดำเนินการที่ผิด
ชุมชนเทคโนโลยีได้จัดทำรายชื่อซอฟต์แวร์และเครื่องมือเว็บไซต์ยอดนิยมหลายรายการที่ใช้เทคโนโลยี “deepfake” เช่น reface, zao, avatarify, deepfakes web β, myheritage, wombo… แต่รายชื่อนี้อาจยาวและหลากหลายมากขึ้นเนื่องจากการพัฒนาอย่างรวดเร็วของเทคโนโลยี ดังนั้นชุมชนความปลอดภัยทางไซเบอร์จึงเตือนผู้ใช้ให้ระมัดระวังและรอบคอบอย่างยิ่งต่อการหลอกลวงโดยใช้เทคโนโลยี deepfake หากไม่ระมัดระวัง วันหนึ่งผู้ใช้จะตระหนักทันทีว่ามีคนแอบอ้างเป็นพวกเขาเพื่อถอนเงินจากธนาคาร หรือ… เข้าใช้อินเทอร์เน็ตเพื่อ… ออกแถลงการณ์เกี่ยวกับการก่อการร้าย ทางการเมือง เกี่ยวกับประเด็นบางประเด็น
เด็กหญิงและเด็กชายที่อวดรูปภาพออนไลน์ของตนเองอย่างสนุกสนาน เลียนแบบรูปภาพของตนเอง และบันทึกช่วงเวลาอันน่าจดจำ ควรพิจารณาอย่างรอบคอบ เนื่องจากไม่มีสิ่งใดที่ฟรีและปลอดภัยสำหรับผู้ใช้ และการกระทำที่ไม่ระมัดระวังอาจนำไปสู่ผลลัพธ์ที่น่าเสียดายในภายหลัง ชุมชนออนไลน์มีคำพูดที่ว่า “สนุกได้ แต่อย่าสนุกมากเกินไป” บางทีอาจเหมาะสมที่จะเน้นย้ำคำเตือนนี้!
ทุย บัต นี
แหล่งที่มา
การแสดงความคิดเห็น (0)