บริษัท Anthropic เพิ่งปรับปรุงนโยบายของตน ภาพ: GK Images |
เมื่อวันที่ 28 สิงหาคม บริษัท AI ชื่อ Anthropic ได้ประกาศเปิดตัวข้อกำหนดการใช้งานและนโยบายความเป็นส่วนตัวฉบับปรับปรุงใหม่ ผู้ใช้สามารถเลือกที่จะอนุญาตให้ใช้ข้อมูลของตนเพื่อปรับปรุง Claude และเพิ่มการป้องกันการละเมิด เช่น การหลอกลวงทางอีเมลและการฉ้อโกงได้แล้ว
ข้อความแจ้งเตือนนี้จะเริ่มปรากฏในแชทบอทตั้งแต่วันที่ 28 สิงหาคมเป็นต้นไป ผู้ใช้มีเวลาหนึ่งเดือนในการยอมรับหรือปฏิเสธข้อกำหนด นโยบายใหม่จะมีผลบังคับใช้ทันทีหลังจากได้รับการยอมรับ หลังจากวันที่ 28 กันยายน ผู้ใช้จะต้องตัดสินใจว่าจะใช้งาน Claude ต่อไปหรือไม่
ทางบริษัทระบุว่า การอัปเดตครั้งนี้มีเป้าหมายเพื่อนำเสนอโมเดล AI ที่มีประโยชน์และทรงพลังยิ่งขึ้น การปรับตัวเลือกนี้ทำได้ง่ายและสามารถทำได้ทุกเมื่อในเมนูการตั้งค่าความเป็นส่วนตัว
การเปลี่ยนแปลงเหล่านี้มีผลกับแพ็กเกจ Claude Free, Pro และ Max ซึ่งรวมถึง Claude Code เครื่องมือเขียนโปรแกรมของ Anthropic บริการที่อยู่ภายใต้ข้อกำหนดและเงื่อนไขการใช้งานจะไม่รวมอยู่ในการเปลี่ยนแปลงนี้ รวมถึง Claude for Work, Claude Gov, Claude for Education หรือการใช้งาน API รวมถึง API ผ่านบุคคลที่สาม เช่น Amazon Bedrock และ Vertex AI ของ Google Cloud
ในบทความบนบล็อกของ Anthropic ระบุว่า การมีส่วนร่วมของผู้ใช้จะช่วยปรับปรุงความปลอดภัยของโมเดล เพิ่มความสามารถในการตรวจจับเนื้อหาที่เป็นอันตรายได้อย่างแม่นยำ และลดความเสี่ยงในการระบุบทสนทนาที่ไม่เป็นอันตรายโดยผิดพลาด เวอร์ชันในอนาคตของ Claude จะมีทักษะที่ได้รับการพัฒนาเพิ่มเติม เช่น การเขียนโปรแกรม การวิเคราะห์ และการให้เหตุผล
เป็นเรื่องสำคัญที่ผู้ใช้จะต้องควบคุมข้อมูลของตนเองได้อย่างเต็มที่ และสามารถเลือกได้ว่าจะอนุญาตให้แพลตฟอร์มใช้ข้อมูลนั้นในหน้าต่างที่มองเห็นได้หรือไม่ บัญชีใหม่สามารถตั้งค่านี้ได้ในระหว่างขั้นตอนการลงทะเบียน (เป็นทางเลือกเพิ่มเติม)
![]() |
หน้าต่างแสดงข้อกำหนดและเงื่อนไขใหม่ในแชทบอท ภาพ: Anthropic |
ระยะเวลาการเก็บรักษาข้อมูลได้เพิ่มขึ้นเป็น 5 ปี โดยมีผลบังคับใช้กับบทสนทนาหรือเซสชันการเขียนโค้ดใหม่ รวมถึงการตอบกลับคำตอบของแชทบอท ข้อมูลที่ถูกลบจะไม่ถูกนำไปใช้ในการฝึกโมเดลในอนาคต หากผู้ใช้ไม่ยินยอมให้ข้อมูลสำหรับการฝึกอบรม พวกเขาจะยังคงใช้ระยะเวลาการเก็บรักษาข้อมูล 30 วันตามนโยบายปัจจุบันต่อไป
บริษัท Anthropic อธิบายถึงนโยบายของตนว่า วงจรการพัฒนา AI โดยทั่วไปใช้เวลาหลายปี และการรักษาความสม่ำเสมอของข้อมูลตลอดกระบวนการฝึกฝนจะช่วยสร้างแบบจำลองที่มีความสม่ำเสมอมากขึ้น การเก็บรักษาข้อมูลในระยะยาวยังช่วยปรับปรุงตัวจำแนกและระบบที่ใช้ในการระบุพฤติกรรมที่ไม่เหมาะสม ทำให้สามารถตรวจจับรูปแบบพฤติกรรมที่เป็นอันตรายได้
"เพื่อปกป้องความเป็นส่วนตัวของผู้ใช้ เราใช้เครื่องมือและกระบวนการอัตโนมัติหลายอย่างร่วมกันในการกรองหรือซ่อนข้อมูลที่ละเอียดอ่อน เราไม่ขายข้อมูลผู้ใช้ให้กับบุคคลที่สาม" บริษัทระบุ
บริษัท Anthropic มักถูกกล่าวถึงว่าเป็นหนึ่งในบริษัทชั้นนำด้านปัญญาประดิษฐ์ที่ปลอดภัย Anthropic พัฒนาวิธีการที่เรียกว่า ปัญญาประดิษฐ์ตามรัฐธรรมนูญ (Constitutional AI) ซึ่งกำหนดหลักการและแนวทางด้านจริยธรรมที่แบบจำลองต้องปฏิบัติตาม นอกจากนี้ Anthropic ยังเป็นหนึ่งในบริษัทที่เข้าร่วมในพันธสัญญาด้านปัญญาประดิษฐ์ที่ปลอดภัยกับ รัฐบาล สหรัฐฯ สหราชอาณาจักร และกลุ่ม G7 อีกด้วย
ที่มา: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html







การแสดงความคิดเห็น (0)