Anthropic politikasını güncelledi. Fotoğraf: GK Images . |
28 Ağustos'ta yapay zeka şirketi Anthropic, Kullanıcılar için Hizmet Şartları ve Gizlilik Politikası'nın güncellenmiş halini yayınladığını duyurdu. Kullanıcılar artık verilerinin Claude'u geliştirmek ve kimlik avı ve dolandırıcılık gibi kötüye kullanımlara karşı korumayı artırmak için kullanılmasına izin vermeyi seçebilecekler.
Bu bildirim 28 Ağustos'tan itibaren chatbot'ta yayınlanmaya başlayacak. Kullanıcıların şartları kabul etmek veya reddetmek için bir aylık süreleri var. Yeni politikalar kabul edildiği anda yürürlüğe girecek. 28 Eylül'den sonra, kullanıcıların Claude'u kullanmaya devam edip etmeme konusunda bir seçim yapmaları gerekecek.
Şirkete göre, güncellemeler daha kullanışlı ve güçlü yapay zeka modelleri sunmayı amaçlıyor. Bu seçeneği ayarlamak basittir ve Gizlilik Ayarları'nda istediğiniz zaman yapılabilir.
Bu değişiklikler, Anthropic'in programlama aracı olan Claude Code'u da içeren Claude Free, Pro ve Max planları için geçerlidir. Ticaret Şartları kapsamındaki hizmetler, Claude for Work, Claude Gov, Claude for Education veya Amazon Bedrock ve Google Cloud'un Vertex AI'si gibi üçüncü taraflar aracılığıyla API kullanımı da dahil olmak üzere, bu değişikliklere dahil edilmeyecektir.
Anthropic, blog yazısında, kullanıcıların katılımıyla modelin güvenliğinin artırılmasına, kötü amaçlı içerikleri doğru bir şekilde tespit etme yeteneğinin geliştirilmesine ve zararsız konuşmaların yanlışlıkla işaretlenmesi riskinin azaltılmasına yardımcı olunacağını belirtti. Claude'un gelecekteki sürümlerinde ayrıca programlama, analiz ve mantık yürütme gibi gelişmiş beceriler de yer alacak.
Kullanıcıların verileri üzerinde tam kontrol sahibi olmaları ve platformun bu verileri görünür bir pencerede kullanmasına izin verip vermemeyi seçebilmeleri önemlidir. Yeni hesaplar, kayıt işlemi sırasında isteğe bağlı olarak bu ayarı yapabilirler.
![]() |
Sohbet robotunda yeni Kullanım Şartları ve Koşullarını gösteren pencere. Resim: Anthropic. |
Veri saklama süresi 5 yıla çıkarıldı; bu süre yeni konuşmalar veya kodlama oturumlarının yanı sıra chatbot yanıtlarına verilen cevapları da kapsayacak. Silinen veriler gelecekteki model eğitiminde kullanılmayacaktır. Kullanıcılar eğitim için veri sağlamayı kabul etmezlerse, mevcut 30 günlük saklama politikası geçerli olmaya devam edecektir.
Anthropic, politikasını açıklarken, yapay zeka geliştirme döngülerinin genellikle uzun yıllar sürdüğünü ve eğitim süreci boyunca veri tutarlılığının korunmasının daha tutarlı modeller oluşturmaya yardımcı olduğunu savunuyor. Daha uzun veri saklama süresi ayrıca, kötüye kullanım davranışını belirlemek için kullanılan sınıflandırıcıları ve sistemleri iyileştirerek zararlı davranış kalıplarının tespit edilmesini sağlıyor.
Şirket, "Kullanıcı gizliliğini korumak için, hassas verileri filtrelemek veya gizlemek amacıyla otomatik araçlar ve süreçlerin bir kombinasyonunu kullanıyoruz. Kullanıcı verilerini üçüncü taraflara satmıyoruz" şeklinde bir açıklama yaptı.
Anthropic, güvenli yapay zeka alanında önde gelen şirketlerden biri olarak sıkça anılmaktadır. Anthropic, modelin uyması gereken etik ilkeler ve yönergeler belirleyen Anayasal Yapay Zeka adı verilen bir metodoloji geliştirmektedir. Anthropic ayrıca ABD, İngiltere ve G7 hükümetleriyle güvenli yapay zeka taahhütlerine katılan şirketlerden biridir.
Kaynak: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html







Yorum (0)