תכונת שיתוף צ'אט דרך קישור ציבורי ב-ChatGPT - תמונה: Techradar
ChatGPT מגיע כעת ליותר מ-2.5 מיליארד שאילתות ממשתמשים ברחבי העולם מדי יום, דבר המראה את הפופולריות הגוברת של צ'אטבוט זה.
עם זאת, כלי זה נתקל בתגובות חריפות מצד משתמשים, שכן תכונת ה"שיתוף" גרמה לאלפי שיחות לדלוף מידע רגיש לגוגל ולמספר מנועי חיפוש באינטרנט.
סיכון אבטחה גבוה
מר וו נגוק סון - ראש מחלקת הטכנולוגיה של האיגוד הלאומי לאבטחת סייבר (NCA) - העריך כי האירוע הנ"ל מציג רמה גבוהה של סיכון אבטחה עבור משתמשי ChatGPT.
"האירוע הנ"ל אינו בהכרח פגם טכני, שכן ישנה יוזמה מסוימת של המשתמש בלחיצה על כפתור השיתוף. עם זאת, ניתן לומר שהבעיה טמונה בתכנון מוצר הצ'אטבוט מבוסס הבינה המלאכותית, כאשר הוא מבלבל את המשתמשים ואין אמצעי אזהרה חזקים מספיק לגבי הסיכון לדליפת נתונים אישיים אם משתמשים משתפים", ניתח מר וו נגוק סון.
ב-ChatGPT, תכונה זו מיושמת לאחר שהמשתמש בוחר לשתף את הצ'אט דרך קישור ציבורי, התוכן יאוחסן בשרת של OpenAI כאתר אינטרנט ציבורי (chatgpt.com/share/...), ללא צורך בהתחברות או בסיסמה כדי לגשת.
הסורקים של גוגל סורקים ומאנדקסים את הדפים האלה באופן אוטומטי, מה שגורם להם להופיע בתוצאות החיפוש, כולל טקסט, תמונות או נתוני צ'אט רגישים.
משתמשים רבים לא היו מודעים לסיכון, וחשבו שהם משתפים צ'אטים עם חברים או אנשי קשר. דבר זה הוביל לחשיפת אלפי שיחות, חלקן הכילו מידע אישי רגיש.
למרות ש-OpenAI הסירה במהירות את התכונה בסוף יולי 2025 לאחר התנגדות מצד הקהילה, עדיין נדרש זמן לתאם עם גוגל כדי להסיר את האינדקסים הישנים. במיוחד עם מערכת האחסון המורכבת, הכוללת את שרתי המטמון של גוגל, לא ניתן לעשות זאת במהירות.
אל תתייחסו לצ'אטבוטים של בינה מלאכותית כאל "קופסה שחורה"
מומחה אבטחת מידע וו נגוק סון - ראש מחלקת טכנולוגיה באיגוד הלאומי לאבטחת סייבר (NCA) - צילום: CHI HIEU
דליפת אלפי צ'אטים עלולה להוות סיכונים למשתמשים כגון חשיפת סודות אישיים, סודות עסקיים; פגיעה במוניטין, סיכונים פיננסיים או אפילו סכנות בטיחות בעת חשיפת כתובות מגורים.
"צ'אטבוטים המופעלים על ידי בינה מלאכותית שימושיים אך אינם 'קופסה שחורה', מכיוון שנתונים משותפים יכולים לחיות ברשת לנצח אם לא יטופלו."
התקרית היא בהחלט לקח הן לספקים והן למשתמשים. ספקי שירותי בינה מלאכותית אחרים יכולים ללמוד מניסיון זה ולתכנן מאפיינים עם אזהרות ברורות ושקופות יותר.
"במקביל, על המשתמשים גם להגביל באופן יזום את הפרסום הבלתי מבוקר של מידע המאפשר זיהוי אישי או סודי בפלטפורמות בינה מלאכותית", המליץ מומחה האבטחה וו נגוק סון.
לדברי מומחי אבטחת מידע, התקרית הנ"ל מראה שיש צורך במסדרונות משפטיים ובסטנדרטים של אבטחת סייבר עבור בינה מלאכותית. ספקי ומפתחי בינה מלאכותית צריכים גם לתכנן מערכות המבטיחות אבטחה, תוך הימנעות מסיכון של דליפת נתונים כגון: דליפה דרך פגיעויות גרועות; פגיעויות תוכנה המובילות להתקפות מסדי נתונים; בקרה לקויה המובילה להרעלה, ניצול לרעה כדי לענות על שאלות מטעות ומעוותות.
משתמשים צריכים גם לשלוט בשיתוף מידע אישי עם בינה מלאכותית, ולא לשתף מידע רגיש. במקרים בהם זה באמת הכרחי, מומלץ להשתמש במצב אנונימי או להצפין מידע באופן פעיל כדי למנוע קישור ישיר של נתונים לאנשים ספציפיים.
מקור: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
תגובה (0)