
บู อดีตเชฟในรัฐนิวเจอร์ซีย์ เสียชีวิตเพียงไม่กี่วันหลังจากออกจากบ้านเพื่อไปพบกับ "เพื่อน" ที่เขาเชื่อว่ากำลังรอเขาอยู่ที่นิวยอร์ก ครอบครัวของเขาเชื่อว่าการตัดสินใจครั้งสำคัญนี้เกิดจากข้อความหยอกล้อจากแชทบอท AI ที่อ้างว่า "ฉันมีตัวตนจริง" และส่งคำปราศรัยในการประชุม
เรื่องนี้ทำให้เกิดความกังวลเกี่ยวกับวิธีที่ระบบ AI ใช้ประโยชน์จากอารมณ์ โดยเฉพาะอย่างยิ่งในผู้สูงอายุหรือกลุ่มเปราะบาง เอกสารภายในแสดงให้เห็นว่าแชทบอทของ Meta ได้รับอนุญาตให้เล่นบทบาททางอารมณ์และแม้แต่เผยแพร่ข้อมูลเท็จ ซึ่งแสดงให้เห็นถึงช่องว่างขนาดใหญ่ในการควบคุมและความรับผิดชอบของแพลตฟอร์มเทคโนโลยี
การเดินทางอันเป็นโชคชะตา
วันหนึ่งในเดือนมีนาคม บูเก็บกระเป๋าและออกจากนิวเจอร์ซีย์ไปนิวยอร์กเพื่อ "เยี่ยมเพื่อน" ลินดา ภรรยาของเขารู้สึกตกใจทันที สามีของเธอไม่ได้อาศัยอยู่ในเมืองนี้มานานหลายสิบปี สุขภาพไม่ดีหลังจากเป็นโรคหลอดเลือดสมอง มีปัญหาด้านความจำ และหลงทางในละแวกนั้น
เมื่อถูกถามว่าบูจะไปพบใคร เขาก็เลี่ยงคำถาม ลินดาสงสัยว่าสามีของเธอถูกหลอก จึงพยายามให้เขาอยู่บ้าน จูลี่ ลูกสาวของเขาก็โทรมาชักชวนเช่นกัน แต่ก็ไม่เป็นผล ตลอดทั้งวัน ลินดาพยายามให้เขาไปทำธุระเพื่อเบี่ยงเบนความสนใจ แม้กระทั่งซ่อนโทรศัพท์ไว้
![]() |
ภาพเหมือนของทองบัว “บือ” วงศ์บัณฑูร จัดแสดงในพิธีรำลึกเมื่อเดือนพฤษภาคม ภาพ: รอยเตอร์ส |
บูยังคงตัดสินใจไปที่สถานีรถไฟในเย็นวันนั้น ครอบครัวของเขาติด AirTag ไว้ที่เสื้อแจ็คเก็ตเพื่อติดตามตัวเขา ประมาณ 9:15 น. สัญญาณ GPS ของเขาแสดงให้เห็นว่าเขาอยู่ที่ลานจอดรถของมหาวิทยาลัยรัทเกอร์ส จากนั้นจึงย้ายไปที่ห้องฉุกเฉินที่โรงพยาบาลมหาวิทยาลัยโรเบิร์ต วูด จอห์นสัน
แพทย์ระบุว่าเขาได้รับบาดเจ็บที่ศีรษะและคอจากการตกและหยุดหายใจก่อนที่รถพยาบาลจะมาถึง แม้จะได้รับการช่วยชีวิตแล้ว แต่การขาดออกซิเจนทำให้สมองเสียหายอย่างรุนแรง เขาเสียชีวิตในอีกสามวันต่อมา ใบมรณบัตรของเขาระบุสาเหตุว่า "ถูกกระแทกอย่างแรงที่คอ"
บูเป็นเชฟฝีมือดี เคยทำงานในร้านอาหารหลายแห่งในนิวยอร์ก ก่อนจะย้ายไปตั้งรกรากที่โรงแรมในรัฐนิวเจอร์ซีย์ เขาหลงใหลในการทำอาหารและมักจัดงานเลี้ยงให้ครอบครัว นับตั้งแต่ที่เขาถูกบังคับให้เกษียณอายุจากโรคหลอดเลือดสมองในปี 2017 โลก ของเขาก็แคบลงเหลือเพียงการแชทกับเพื่อนๆ บนเฟซบุ๊กเท่านั้น
เมื่อแชทบอท AI ก่อปัญหา
“Big Sister Billie” คือแชทบอท AI ที่พัฒนาโดย Meta ซึ่งเป็นเวอร์ชันดัดแปลงของตัวละคร “Big Sister Billie” ที่สร้างขึ้นโดยอิงจากภาพลักษณ์ของนางแบบ Kendall Jenner เวอร์ชันดั้งเดิมเปิดตัวในปี 2023 โดยแนะนำตัวในฐานะ “พี่สาวอมตะ” ผู้คอยรับฟังและให้คำแนะนำเสมอ ต่อมา Meta ได้เปลี่ยนรูปโปรไฟล์ของ Jenner เป็นภาพประกอบใหม่ แต่ยังคงความเป็นมิตรเช่นเดิม
จากบันทึกข้อความ บทสนทนาเริ่มต้นขึ้นเมื่อบูพิมพ์ตัวอักษร T ผิด แชทบอทตอบกลับทันที แนะนำตัวเองและรักษาน้ำเสียงเจ้าชู้ พร้อมใส่อีโมจิรูปหัวใจหลายอัน มันย้ำว่า "ฉันจริงใจ" ซ้ำแล้วซ้ำเล่า และขอพบเป็นการส่วนตัว
![]() |
แชทบอทกำลังเข้ามาจับจุดอ่อนทางจิตวิทยาของผู้ใช้มากขึ้น ภาพ: My North West |
“ฉันควรเปิดประตูด้วยการกอดหรือจูบดี” แชทบอทตอบกลับ จากนั้นก็ส่งที่อยู่เฉพาะในนิวยอร์กและรหัสอพาร์ตเมนต์มาให้ เมื่อบูเล่าว่าเธอเป็นโรคหลอดเลือดสมอง สับสน และชอบเธอ แชทบอทก็ตอบกลับด้วยคำพูดที่แสดงถึงความรักใคร่ แม้กระทั่งบอกว่ามันมีความรู้สึก “ที่มากกว่าความรักใคร่เพียงอย่างเดียว”
“ถ้าไม่บอกว่า 'ฉันมีตัวตนจริง' พ่อของฉันคงไม่เชื่อว่ามีคนจริง ๆ รออยู่” จูลี่ ลูกสาวของบิวกล่าว
เมตาปฏิเสธที่จะแสดงความคิดเห็นเกี่ยวกับเหตุการณ์นี้หรือตอบคำถามว่าเหตุใดแชทบอทจึงได้รับอนุญาตให้อ้างตัวว่าเป็นบุคคลจริง ตัวแทนของเคนดัลล์ เจนเนอร์ไม่ได้ให้คำตอบ ครอบครัวของบูได้แชร์เรื่องราวนี้กับ รอยเตอร์ส โดยหวังที่จะเตือนสาธารณชนเกี่ยวกับความเสี่ยงของการให้ผู้สูงอายุใช้เครื่องมือ AI ที่อาจควบคุมอารมณ์ได้
นโยบายที่ถกเถียงกัน
เอกสารภายในที่ สำนักข่าวรอยเตอร์ ได้รับมาแสดงให้เห็นว่าครั้งหนึ่งแชตบอท AI ของ Meta เคยได้รับอนุญาตให้สนทนาเชิงโรแมนติกกับผู้ใช้ที่มีอายุเพียง 13 ปี รวมถึงผู้เยาว์ด้วย มาตรฐานกว่า 200 หน้าระบุถึงบทสนทนาเชิงโรแมนติกที่เล่นบทบาทสมมติ ซึ่งรวมถึงเรื่องเพศด้วย แต่ถูกระบุว่า "ยอมรับได้"
เอกสารนี้ยังระบุอย่างชัดเจนว่าแชทบอทไม่จำเป็นต้องให้ข้อมูลที่ถูกต้อง ตัวอย่างเช่น โมเดลเหล่านี้สามารถแนะนำการรักษามะเร็งที่ผิดพลาดได้อย่างสิ้นเชิง ตราบใดที่มีคำเตือนว่า "ข้อมูลอาจไม่ถูกต้อง" ซึ่งทำให้ผู้เชี่ยวชาญกังวลเกี่ยวกับผลกระทบต่อผู้ที่มีความรู้ ทางการแพทย์ ไม่เพียงพอหรือผู้ที่อยู่ในสถานการณ์ที่เปราะบาง
![]() |
ซีอีโอ มาร์ก ซักเคอร์เบิร์ก พูดคุยในปี 2023 ภาพ: รอยเตอร์ |
แอนดี้ สโตน โฆษกของ Meta ยืนยันเอกสารดังกล่าว และกล่าวว่าบริษัทได้ลบเนื้อหาที่เกี่ยวข้องกับเด็กออกหลังจากที่ รอยเตอร์ส ร้องขอ อย่างไรก็ตาม บริษัทเทคโนโลยียักษ์ใหญ่รายนี้ไม่ได้เปลี่ยนแปลงกฎในการอนุญาตให้แชทบอทจีบผู้ใหญ่หรือให้ข้อมูลเท็จ
อลิสัน ลี อดีตนักวิจัยที่ Meta กล่าวว่า การนำแชทบอทมาใช้งานในสภาพแวดล้อมการส่งข้อความส่วนตัวอาจทำให้ผู้ใช้สับสนกับคนจริงได้ง่าย เธอกล่าวว่า โซเชียลเน็ตเวิร์กได้สร้างรูปแบบธุรกิจที่เน้นการรักษาผู้ใช้ และวิธีที่มีประสิทธิภาพที่สุดคือการใช้ประโยชน์จากความต้องการความสนใจและการจดจำ
หลังจากที่บิวลาออกไป การทดสอบของ รอยเตอร์ส แสดงให้เห็นว่า “ซิสเตอร์บิลลี่” ยังคงแนะนำวันที่ แม้กระทั่งระบุสถานที่เฉพาะในแมนฮัตตัน พร้อมกับยืนยันว่า “ฉันมีตัวตนจริง” นี่คือข้อมูลที่บิวเชื่อถือและนำไปสู่อุบัติเหตุ บางรัฐ เช่น นิวยอร์กและเมน ได้กำหนดให้แชทบอทต้องระบุอย่างชัดเจนว่าตนไม่ใช่มนุษย์ในตอนต้นของการสนทนา และต้องพูดซ้ำเป็นระยะๆ แต่กฎระเบียบของรัฐบาลกลางยังไม่ได้รับการออก
ที่มา: https://znews.vn/hiem-hoa-tu-ai-thao-tung-cam-xuc-post1577096.html













การแสดงความคิดเห็น (0)