Anthropic baru sahaja mengemas kini dasarnya. Foto: GK Images . |
Pada 28 Ogos, syarikat AI Anthropic mengumumkan pelancaran Syarat Perkhidmatan untuk Pengguna dan Dasar Privasi yang dikemas kini. Pengguna kini boleh memilih untuk membenarkan data mereka digunakan bagi menambah baik Claude dan mempertingkatkan perlindungan terhadap penyalahgunaan seperti pancingan data dan penipuan.
Pemberitahuan ini akan dilancarkan dalam chatbot bermula 28 Ogos. Pengguna mempunyai masa sebulan untuk menerima atau menolak terma dan syarat. Dasar baharu akan berkuat kuasa serta-merta setelah penerimaan. Selepas 28 September, pengguna dikehendaki membuat pilihan untuk terus menggunakan Claude.
Menurut syarikat itu, kemas kini ini bertujuan untuk memberikan model AI yang lebih berguna dan berkuasa. Melaraskan pilihan ini adalah mudah dan boleh dilakukan pada bila-bila masa dalam Tetapan Privasi.
Perubahan ini terpakai kepada pelan Claude Free, Pro dan Max, yang merangkumi Claude Code, alat pengaturcaraan Anthropic. Perkhidmatan yang dilindungi oleh Syarat Perdagangan tidak akan disertakan, termasuk Claude for Work, Claude Gov, Claude for Education atau penggunaan API, termasuk melalui pihak ketiga seperti Amazon Bedrock dan Vertex AI Google Cloud.
Dalam catatan blognya, Anthropic menyatakan bahawa dengan menyertai, pengguna akan membantu meningkatkan keselamatan model, meningkatkan keupayaannya untuk mengesan kandungan berniat jahat dengan tepat dan mengurangkan risiko tersilap menandakan perbualan yang tidak berbahaya. Versi Claude yang akan datang juga akan mempunyai kemahiran yang dipertingkatkan seperti pengaturcaraan, analisis dan penaakulan.
Adalah penting bagi pengguna untuk mempunyai kawalan penuh ke atas data mereka dan boleh memilih sama ada untuk membenarkan platform menggunakannya dalam tetingkap yang boleh dilihat atau tidak. Akaun baharu boleh menetapkannya secara pilihan semasa proses pendaftaran.
![]() |
Tetingkap yang memaparkan Terma dan Syarat baharu dalam chatbot. Imej: Anthropic. |
Pengekalan data telah ditingkatkan kepada 5 tahun, terpakai untuk perbualan atau sesi pengekodan baharu, serta respons kepada jawapan chatbot. Data yang dipadam tidak akan digunakan untuk latihan model masa hadapan. Jika pengguna tidak bersetuju untuk menyediakan data untuk latihan, mereka akan meneruskan dasar pengekalan 30 hari semasa.
Dalam menjelaskan dasarnya, Anthropic berhujah bahawa kitaran pembangunan AI biasanya berlangsung selama bertahun-tahun, dan mengekalkan konsistensi data sepanjang proses latihan membantu mencipta model yang lebih konsisten. Pengekalan data yang lebih lama juga meningkatkan pengelas dan sistem yang digunakan untuk mengenal pasti tingkah laku yang menyalahgunakan, membolehkan pengesanan corak tingkah laku yang berbahaya.
"Bagi melindungi privasi pengguna, kami menggunakan gabungan alat dan proses automatik untuk menapis atau menyembunyikan data sensitif. Kami tidak menjual data pengguna kepada pihak ketiga," tulis syarikat itu.
Anthropic sering disebut sebagai salah satu syarikat terkemuka dalam AI selamat. Anthropic membangunkan metodologi yang dipanggil AI Perlembagaan, yang menetapkan prinsip dan garis panduan etika yang mesti dipatuhi oleh model tersebut. Anthropic juga merupakan salah satu syarikat yang mengambil bahagian dalam komitmen AI selamat dengan kerajaan AS, UK dan G7.
Sumber: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html







Komen (0)