Vietnam.vn - Nền tảng quảng bá Việt Nam

חברת בינה מלאכותית קובעת מועד אחרון למשתמשים.

קלוד בינה מלאכותית, יוצר קלוד בינה מלאכותית, פרסם תנאים והגבלות חדשים בנוגע לשימוש בנתונים ופרטיות המשתמשים, המחייבים משתמשים לקבל החלטה חודש מראש אם להמשיך להשתמש בצ'אטבוט.

ZNewsZNews29/08/2025

אנתרופיק עדכנה זה עתה את המדיניות שלה. צילום: GK Images .

ב-28 באוגוסט, חברת הבינה המלאכותית Anthropic הודיעה על פרסום תנאי שירות מעודכנים למשתמשים ומדיניות פרטיות. משתמשים יכולים כעת לבחור לאפשר שימוש בנתונים שלהם לשיפור קלוד ולשיפור ההגנות מפני ניצול לרעה כגון פישינג והונאה.

הודעה זו תפורסם בצ'אטבוט החל מה-28 באוגוסט. למשתמשים יש חודש אחד לקבל או לדחות את התנאים. המדיניות החדשה תיכנס לתוקף מיד עם קבלתה. לאחר ה-28 בספטמבר, המשתמשים יידרשו לבחור אם להמשיך להשתמש ב-Claude.

לפי החברה, העדכונים נועדו לספק מודלים של בינה מלאכותית שימושיים וחזקים יותר. התאמת אפשרות זו היא פשוטה וניתנת לביצוע בכל עת בהגדרות הפרטיות.

שינויים אלה חלים על תוכניות Claude Free, Pro ו-Max, הכוללות את Claude Code, כלי התכנות של Anthropic. שירותים המכוסים על ידי תנאי המסחר לא ייכללו, כולל Claude for Work, Claude Gov, Claude for Education, או שימוש בממשקי API, כולל באמצעות צדדים שלישיים כגון Amazon Bedrock ו-Vertex AI של Google Cloud.

בפוסט בבלוג שלה, Anthropic הצהירה כי על ידי השתתפותה, המשתמשים יסייעו בשיפור בטיחות המודל, יגדילו את יכולתו לזהות במדויק תוכן זדוני, ויפחיתו את הסיכון לסימון בטעות של שיחות לא מזיקות. גרסאות עתידיות של קלוד יכללו גם מיומנויות משופרות כגון תכנות, ניתוח והיגיון.

חשוב שלמשתמשים תהיה שליטה מלאה על הנתונים שלהם, ויוכלו לבחור אם לאפשר לפלטפורמה להשתמש בהם בחלון גלוי. חשבונות חדשים יכולים להגדיר זאת באופן אופציונלי במהלך תהליך ההרשמה.

Chinh sach moi Anthropic anh 1

החלון המציג את התנאים וההגבלות החדשים בצ'אטבוט. תמונה: אנתרופיק.

שמירת הנתונים הוארכה ל-5 שנים, והיא חלה על שיחות חדשות או מפגשי קידוד, כמו גם על תגובות לתשובות צ'אטבוט. נתונים שנמחקו לא ישמשו לאימוני מודלים עתידיים. אם משתמשים לא יסכימו לספק נתונים להדרכה, הם ימשיכו עם מדיניות השמירה הנוכחית של 30 יום.

בהסבר מדיניותה, טוענת אנתרופיק כי מחזורי פיתוח של בינה מלאכותית נמשכים בדרך כלל שנים רבות, ושמירה על עקביות נתונים לאורך תהליך האימון מסייעת ביצירת מודלים עקביים יותר. שמירת נתונים ארוכה יותר גם משפרת מסווגים ומערכות המשמשות לזיהוי התנהגות פוגענית, ומאפשרת זיהוי דפוסי התנהגות מזיקים.

"כדי להגן על פרטיות המשתמשים, אנו משתמשים בשילוב של כלים ותהליכים אוטומטיים כדי לסנן או להסתיר נתונים רגישים. איננו מוכרים נתוני משתמשים לצדדים שלישיים", כתבה החברה.

אנתרופיק מצוטטת לעתים קרובות כאחת החברות המובילות בתחום הבינה המלאכותית המאובטחת. אנתרופיק מפתחת מתודולוגיה הנקראת בינה מלאכותית חוקתית, אשר קובעת עקרונות אתיים והנחיות שהמודל חייב לעמוד בהן. אנתרופיק היא גם אחת החברות המשתתפות בהתחייבויות לבינה מלאכותית מאובטחת עם ממשלות ארה"ב, בריטניה ומדינות ה-G7.

מקור: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html


תגובה (0)

השאירו תגובה כדי לשתף את התחושות שלכם!

באותה קטגוריה

מאת אותו מחבר

מוֹרֶשֶׁת

דְמוּת

עסקים

ענייני היום

מערכת פוליטית

מְקוֹמִי

מוּצָר

Happy Vietnam
תחי וייטנאם!

תחי וייטנאם!

מגדלור קה גה

מגדלור קה גה

להקת ילדים צבאית

להקת ילדים צבאית