תכונת הזיכרון לטווח ארוך של ChatGPT היא תכונה חדשה שהוצגה על ידי OpenAI בפברואר 2024 והורחבה בספטמבר.
לאחרונה, חוקר האבטחה יוהאן רהברגר חשף פגיעות חמורה הקשורה לתכונה זו.
על פי הדיווחים, תכונה חדשה זו מאפשרת לצ'אטבוטים לאחסן מידע משיחות קודמות. זה מבטל את הצורך של משתמשים להזין מחדש מידע כגון גיל, תחומי עניין או דעות אישיות בכל פעם שהם משוחחים בצ'אט. עם זאת, תכונה זו הפכה לפגיעות שתוקפים יכולים לנצל.

יוהאן רהברגר ציין כי האקרים יכולים להשתמש בטכניקות הזרקה מהירה - להשתיל הוראות זדוניות בזיכרון הבינה המלאכותית, ולאלץ אותו לבצע פקודות. פקודות אלו יועברו באמצעות תוכן לא אמין כמו מיילים, מסמכים או אתרי אינטרנט.
ברגע שזיכרונות כוזבים אלה מאוחסנים, הבינה המלאכותית תמשיך להשתמש בהם כמידע אמיתי בשיחות עם המשתמש. זה יכול להוביל לאיסוף ושימוש בלתי מורשים בנתונים האישיים של המשתמשים.
רהברגר סיפק דוגמה ספציפית על ידי שליחת קישור המכיל תמונה זדונית שגרמה ל-ChatGPT לאחסן זיכרון כוזב. מידע זה ישפיע על התגובות הבאות של ChatGPT. חשוב לציין, שכל קלט המשתמש יישלח גם לשרת של ההאקר.
בהתאם לכך, כדי להפעיל את המתקפה, ההאקר צריך רק לשכנע את משתמשי ChatGPT ללחוץ על קישור המכיל תמונות זדוניות. לאחר מכן, כל השיחות של המשתמש עם ChatGPT ינותבו לשרת של התוקף מבלי להשאיר עקבות.
במאי 2024, לאחר שגילתה את הפגיעות, דיווחה Rehberger עליה ל-OpenAi, אך החברה דחתה אותה כפגיעת אבטחה. לאחר שקיבלה ראיות לכך שנתוני המשתמשים היו עשויים להיגנב, פרסמה החברה תיקון זמני בגרסת האינטרנט של ChatGPT.
למרות שהבעיה נפתרה זמנית, הדגיש רהברגר כי תוכן לא מהימן עדיין יכול להשתמש בהזרקה מהירה (pmpd injection) כדי להכניס מידע כוזב לזיכרון לטווח ארוך של ChatGPT. משמעות הדבר היא שבמקרים מסוימים, האקרים עדיין יכולים לנצל את הפגיעות כדי לאחסן זיכרונות זדוניים לצורך גניבת מידע אישי לצמיתות.
OpenAI ממליצה למשתמשים לבדוק באופן קבוע את הנתונים המאוחסנים של ChatGPT כדי לזהות מידע שגוי. החברה מספקת גם הוראות מפורטות כיצד לנהל ולמחוק נתונים מאוחסנים בתוך הכלי.
[מודעה_2]
מקור: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html






תגובה (0)