Vietnam.vn - Nền tảng quảng bá Việt Nam

บริษัท AI กำหนดเส้นตายสำหรับผู้ใช้งาน

Claude AI ผู้สร้าง Claude AI ได้ออกข้อกำหนดและเงื่อนไขใหม่เกี่ยวกับการใช้ข้อมูลและความเป็นส่วนตัวของผู้ใช้ โดยกำหนดให้ผู้ใช้ต้องตัดสินใจล่วงหน้าหนึ่งเดือนว่าจะใช้แชทบอทต่อไปหรือไม่

ZNewsZNews29/08/2025

บริษัท Anthropic เพิ่งปรับปรุงนโยบายของตน ภาพ: GK Images

เมื่อวันที่ 28 สิงหาคม บริษัท AI ชื่อ Anthropic ได้ประกาศเปิดตัวข้อกำหนดการใช้งานและนโยบายความเป็นส่วนตัวฉบับปรับปรุงใหม่ ผู้ใช้สามารถเลือกที่จะอนุญาตให้ใช้ข้อมูลของตนเพื่อปรับปรุง Claude และเพิ่มการป้องกันการละเมิด เช่น การหลอกลวงทางอีเมลและการฉ้อโกงได้แล้ว

ข้อความแจ้งเตือนนี้จะเริ่มปรากฏในแชทบอทตั้งแต่วันที่ 28 สิงหาคมเป็นต้นไป ผู้ใช้มีเวลาหนึ่งเดือนในการยอมรับหรือปฏิเสธข้อกำหนด นโยบายใหม่จะมีผลบังคับใช้ทันทีหลังจากได้รับการยอมรับ หลังจากวันที่ 28 กันยายน ผู้ใช้จะต้องตัดสินใจว่าจะใช้งาน Claude ต่อไปหรือไม่

ทางบริษัทระบุว่า การอัปเดตครั้งนี้มีเป้าหมายเพื่อนำเสนอโมเดล AI ที่มีประโยชน์และทรงพลังยิ่งขึ้น การปรับตัวเลือกนี้ทำได้ง่ายและสามารถทำได้ทุกเมื่อในเมนูการตั้งค่าความเป็นส่วนตัว

การเปลี่ยนแปลงเหล่านี้มีผลกับแพ็กเกจ Claude Free, Pro และ Max ซึ่งรวมถึง Claude Code เครื่องมือเขียนโปรแกรมของ Anthropic บริการที่อยู่ภายใต้ข้อกำหนดและเงื่อนไขการใช้งานจะไม่รวมอยู่ในการเปลี่ยนแปลงนี้ รวมถึง Claude for Work, Claude Gov, Claude for Education หรือการใช้งาน API รวมถึง API ผ่านบุคคลที่สาม เช่น Amazon Bedrock และ Vertex AI ของ Google Cloud

ในบทความบนบล็อกของ Anthropic ระบุว่า การมีส่วนร่วมของผู้ใช้จะช่วยปรับปรุงความปลอดภัยของโมเดล เพิ่มความสามารถในการตรวจจับเนื้อหาที่เป็นอันตรายได้อย่างแม่นยำ และลดความเสี่ยงในการระบุบทสนทนาที่ไม่เป็นอันตรายโดยผิดพลาด เวอร์ชันในอนาคตของ Claude จะมีทักษะที่ได้รับการพัฒนาเพิ่มเติม เช่น การเขียนโปรแกรม การวิเคราะห์ และการให้เหตุผล

เป็นเรื่องสำคัญที่ผู้ใช้จะต้องควบคุมข้อมูลของตนเองได้อย่างเต็มที่ และสามารถเลือกได้ว่าจะอนุญาตให้แพลตฟอร์มใช้ข้อมูลนั้นในหน้าต่างที่มองเห็นได้หรือไม่ บัญชีใหม่สามารถตั้งค่านี้ได้ในระหว่างขั้นตอนการลงทะเบียน (เป็นทางเลือกเพิ่มเติม)

Chinh sach moi Anthropic anh 1

หน้าต่างแสดงข้อกำหนดและเงื่อนไขใหม่ในแชทบอท ภาพ: Anthropic

ระยะเวลาการเก็บรักษาข้อมูลได้เพิ่มขึ้นเป็น 5 ปี โดยมีผลบังคับใช้กับบทสนทนาหรือเซสชันการเขียนโค้ดใหม่ รวมถึงการตอบกลับคำตอบของแชทบอท ข้อมูลที่ถูกลบจะไม่ถูกนำไปใช้ในการฝึกโมเดลในอนาคต หากผู้ใช้ไม่ยินยอมให้ข้อมูลสำหรับการฝึกอบรม พวกเขาจะยังคงใช้ระยะเวลาการเก็บรักษาข้อมูล 30 วันตามนโยบายปัจจุบันต่อไป

บริษัท Anthropic อธิบายถึงนโยบายของตนว่า วงจรการพัฒนา AI โดยทั่วไปใช้เวลาหลายปี และการรักษาความสม่ำเสมอของข้อมูลตลอดกระบวนการฝึกฝนจะช่วยสร้างแบบจำลองที่มีความสม่ำเสมอมากขึ้น การเก็บรักษาข้อมูลในระยะยาวยังช่วยปรับปรุงตัวจำแนกและระบบที่ใช้ในการระบุพฤติกรรมที่ไม่เหมาะสม ทำให้สามารถตรวจจับรูปแบบพฤติกรรมที่เป็นอันตรายได้

"เพื่อปกป้องความเป็นส่วนตัวของผู้ใช้ เราใช้เครื่องมือและกระบวนการอัตโนมัติหลายอย่างร่วมกันในการกรองหรือซ่อนข้อมูลที่ละเอียดอ่อน เราไม่ขายข้อมูลผู้ใช้ให้กับบุคคลที่สาม" บริษัทระบุ

บริษัท Anthropic มักถูกกล่าวถึงว่าเป็นหนึ่งในบริษัทชั้นนำด้านปัญญาประดิษฐ์ที่ปลอดภัย Anthropic พัฒนาวิธีการที่เรียกว่า ปัญญาประดิษฐ์ตามรัฐธรรมนูญ (Constitutional AI) ซึ่งกำหนดหลักการและแนวทางด้านจริยธรรมที่แบบจำลองต้องปฏิบัติตาม นอกจากนี้ Anthropic ยังเป็นหนึ่งในบริษัทที่เข้าร่วมในพันธสัญญาด้านปัญญาประดิษฐ์ที่ปลอดภัยกับ รัฐบาล สหรัฐฯ สหราชอาณาจักร และกลุ่ม G7 อีกด้วย

ที่มา: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html


การแสดงความคิดเห็น (0)

กรุณาแสดงความคิดเห็นเพื่อแบ่งปันความรู้สึกของคุณ!

หมวดหมู่เดียวกัน

ผู้เขียนเดียวกัน

มรดก

รูป

ธุรกิจ

ข่าวสารปัจจุบัน

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์

Happy Vietnam
ชีวิตสมรสที่ราบรื่น

ชีวิตสมรสที่ราบรื่น

พระอาทิตย์ตก

พระอาทิตย์ตก

ป่าเขาทุ่งหนาม

ป่าเขาทุ่งหนาม