תכונת הזיכרון לטווח ארוך של ChatGPT היא תכונה חדשה שהוצגה על ידי OpenAI בפברואר 2024 והורחבה בספטמבר.
לאחרונה, חוקר האבטחה יוהאן רהברגר חשף פגיעות חמורה הקשורה לתכונה זו.
ידוע כי תכונה חדשה זו מסייעת לצ'אטבוטים לאחסן מידע משיחות קודמות. הודות לכך, משתמשים אינם צריכים להזין מחדש מידע כגון גיל, תחומי עניין או דעות אישיות בכל פעם שהם משוחחים בצ'אט. עם זאת, זו הפכה לנקודת תורפה עבור תוקפים.
יוהאן רהברגר הראה כי האקרים יכולים להשתמש בטכניקה הנקראת הזרקה מהירה - החדרת הוראות זדוניות לזיכרון, מה שאילץ את הבינה המלאכותית לציית. פקודות אלו יועברו דרך תוכן לא מהימן כמו מיילים, מסמכים או אתרי אינטרנט.
ברגע שהזיכרונות המזויפים הללו יאוחסנו, הבינה המלאכותית תמשיך להשתמש בהם כמידע אמיתי בשיחות עם משתמשים, מה שעלול להוביל לאיסוף ושימוש לרעה בנתונים האישיים של המשתמשים.
רהברגר סיפק דוגמה ספציפית על ידי שליחת קישור המכיל תמונה זדונית שגרמה ל-ChatGPT לאחסן זיכרון כוזב. מידע זה ישפיע על תגובות עתידיות של ChatGPT. בפרט, כל מידע שהמשתמש הזין יישלח גם הוא לשרת של ההאקר.
בהתאם לכך, כדי להפעיל את המתקפה, ההאקר צריך רק לשכנע את משתמשי ChatGPT ללחוץ על קישור המכיל תמונה זדונית. לאחר מכן, כל הצ'אטים של המשתמש עם ChatGPT יופנו לשרת של התוקף מבלי להשאיר עקבות.
Rehberger דיווח על הבאג ל-OpenAi במאי 2024, אך החברה ראתה בו רק פגם אבטחה. לאחר שקיבלה ראיות לכך שנתוני משתמשים עלולים להיגנב, החברה הוציאה תיקון זמני לגרסת האינטרנט של ChatGPT.
למרות שהבעיה תוקנה זמנית, Rehberger מציין שתוכן לא מהימן עדיין יכול להשתמש ב-Prompt Injection כדי להכניס מידע מזויף לזיכרון לטווח ארוך של ChatGPT. משמעות הדבר היא שבמקרים מסוימים, האקרים עדיין עלולים לנצל את הפגיעות כדי לאחסן זיכרונות זדוניים ולגנוב מידע אישי לטווח ארוך.
OpenAI ממליצה למשתמשים לבדוק באופן קבוע את הזיכרונות המאוחסנים של ChatGPT לאיתור תוצאות חיוביות שגויות, והחברה מספקת גם הוראות מפורטות כיצד לנהל ולמחוק זיכרונות המאוחסנים בכלי.
[מודעה_2]
מקור: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
תגובה (0)