Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

אלפי צ'אטים של ChatGPT נחשפו בגוגל, למה צריכים המשתמשים לשים לב?

מומחי אבטחה מזהירים מהמקרה של אלפי שיחות משתמשים ב-ChatGPT שנחשפו בגוגל: בינה מלאכותית היא כלי תמיכה שימושי, אך לא "קופסה שחורה בטוחה".

Báo Tuổi TrẻBáo Tuổi Trẻ05/08/2025

ChatGPT - Ảnh 1.

תכונת שיתוף צ'אט דרך קישור ציבורי ב-ChatGPT - תמונה: Techradar

ChatGPT מגיע כעת ליותר מ-2.5 מיליארד שאילתות ממשתמשים ברחבי העולם מדי יום, דבר המראה את הפופולריות הגוברת של צ'אטבוט זה.

עם זאת, כלי זה נתקל בתגובות חריפות מצד משתמשים, שכן תכונת ה"שיתוף" גרמה לאלפי שיחות לדלוף מידע רגיש לגוגל ולמספר מנועי חיפוש באינטרנט.

סיכון אבטחה גבוה

מר וו נגוק סון - ראש מחלקת הטכנולוגיה של האיגוד הלאומי לאבטחת סייבר (NCA) - העריך כי האירוע הנ"ל מציג רמה גבוהה של סיכון אבטחה עבור משתמשי ChatGPT.

"האירוע הנ"ל אינו בהכרח פגם טכני, שכן ישנה יוזמה מסוימת של המשתמש בלחיצה על כפתור השיתוף. עם זאת, ניתן לומר שהבעיה טמונה בתכנון מוצר הצ'אטבוט מבוסס הבינה המלאכותית, כאשר הוא מבלבל את המשתמשים ואין אמצעי אזהרה חזקים מספיק לגבי הסיכון לדליפת נתונים אישיים אם משתמשים משתפים", ניתח מר וו נגוק סון.

ב-ChatGPT, תכונה זו מיושמת לאחר שהמשתמש בוחר לשתף את הצ'אט דרך קישור ציבורי, התוכן יאוחסן בשרת של OpenAI כאתר אינטרנט ציבורי (chatgpt.com/share/...), ללא צורך בהתחברות או בסיסמה כדי לגשת.

הסורקים של גוגל סורקים ומאנדקסים את הדפים האלה באופן אוטומטי, מה שגורם להם להופיע בתוצאות החיפוש, כולל טקסט, תמונות או נתוני צ'אט רגישים.

משתמשים רבים לא היו מודעים לסיכון, וחשבו שהם משתפים צ'אטים עם חברים או אנשי קשר. דבר זה הוביל לחשיפת אלפי שיחות, חלקן הכילו מידע אישי רגיש.

למרות ש-OpenAI הסירה במהירות את התכונה בסוף יולי 2025 לאחר התנגדות מצד הקהילה, עדיין נדרש זמן לתאם עם גוגל כדי להסיר את האינדקסים הישנים. במיוחד עם מערכת האחסון המורכבת, הכוללת את שרתי המטמון של גוגל, לא ניתן לעשות זאת במהירות.

אל תתייחסו לצ'אטבוטים של בינה מלאכותית כאל "קופסה שחורה"

Hàng ngàn cuộc trò chuyện với ChatGPT bị lộ trên Google, người dùng lưu ý gì? - Ảnh 3.

מומחה אבטחת מידע וו נגוק סון - ראש מחלקת טכנולוגיה באיגוד הלאומי לאבטחת סייבר (NCA) - צילום: CHI HIEU

דליפת אלפי צ'אטים עלולה להוות סיכונים למשתמשים כגון חשיפת סודות אישיים, סודות עסקיים; פגיעה במוניטין, סיכונים פיננסיים או אפילו סכנות בטיחות בעת חשיפת כתובות מגורים.

"צ'אטבוטים המופעלים על ידי בינה מלאכותית שימושיים אך אינם 'קופסה שחורה', מכיוון שנתונים משותפים יכולים לחיות ברשת לנצח אם לא יטופלו."

התקרית היא בהחלט לקח הן לספקים והן למשתמשים. ספקי שירותי בינה מלאכותית אחרים יכולים ללמוד מניסיון זה ולתכנן מאפיינים עם אזהרות ברורות ושקופות יותר.

"במקביל, על המשתמשים גם להגביל באופן יזום את הפרסום הבלתי מבוקר של מידע המאפשר זיהוי אישי או סודי בפלטפורמות בינה מלאכותית", המליץ ​​מומחה האבטחה וו נגוק סון.

לדברי מומחי אבטחת מידע, התקרית הנ"ל מראה שיש צורך במסדרונות משפטיים ובסטנדרטים של אבטחת סייבר עבור בינה מלאכותית. ספקי ומפתחי בינה מלאכותית צריכים גם לתכנן מערכות המבטיחות אבטחה, תוך הימנעות מסיכון של דליפת נתונים כגון: דליפה דרך פגיעויות גרועות; פגיעויות תוכנה המובילות להתקפות מסדי נתונים; בקרה לקויה המובילה להרעלה, ניצול לרעה כדי לענות על שאלות מטעות ומעוותות.

משתמשים צריכים גם לשלוט בשיתוף מידע אישי עם בינה מלאכותית, ולא לשתף מידע רגיש. במקרים בהם זה באמת הכרחי, מומלץ להשתמש במצב אנונימי או להצפין מידע באופן פעיל כדי למנוע קישור ישיר של נתונים לאנשים ספציפיים.

חזרה לנושא
אֲדִיקוּת

מקור: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm


תגובה (0)

No data
No data

באותו נושא

באותה קטגוריה

48 שעות של ציד עננים, צפייה בשדות אורז ואכילת עוף ב-Y Ty
סוד הביצועים הגבוהים ביותר של ה-Su-30MK2 בשמי בה דין ב-2 בספטמבר
טויאן קוואנג מואר בפנסי אמצע הסתיו הענקיים במהלך ליל הפסטיבל
הרובע העתיק של האנוי לובש "שמלה" חדשה, ומקבל בברכה את פסטיבל אמצע הסתיו

מאת אותו מחבר

מוֹרֶשֶׁת

דְמוּת

עֵסֶק

No videos available

חֲדָשׁוֹת

מערכת פוליטית

מְקוֹמִי

מוּצָר