על פי BGR , דו"ח מחקר חדש פרסם טכניקה מדאיגה בשם 'Fun-Tuning', שבה משתמשת בינה מלאכותית (AI) עצמה כדי ליצור באופן אוטומטי התקפות הזרקה מהירה יעילות ביותר המכוונות לדגמי בינה מלאכותית מתקדמים אחרים, כולל ג'מיני של גוגל.
השיטה הופכת את "פיצוח" הבינה המלאכותית למהירה, זולה וקלה מאי פעם, ומסמנת הסלמה חדשה במלחמת הסייבר הקשורה לבינה מלאכותית.
הסכנה כאשר אנשים רעים משתמשים בבינה מלאכותית כדי לשבור את הבינה המלאכותית
הזרקה מהירה (Prompt Injection) היא טכניקה שבה יריב מתגנב הוראות זדוניות לנתוני הקלט של מודל בינה מלאכותית (למשל, באמצעות הערות בקוד המקור, טקסט מוסתר באינטרנט). המטרה היא 'להערים' על הבינה המלאכותית ולגרום לה לעקוף כללי בטיחות מתוכנתים מראש, מה שמוביל לתוצאות חמורות כגון דליפת נתונים רגישים, מתן מידע כוזב או ביצוע פעולות זדוניות אחרות.
האקרים משתמשים בבינה מלאכותית כדי לתקוף בינה מלאכותית
תמונה: צילום מסך לינקדאין
בעבר, ביצוע מוצלח של התקפות אלו, במיוחד על דגמים "סגורים" כמו ג'מיני או GPT-4, דרש לעתים קרובות בדיקות ידניות מורכבות וגוזלות זמן.
אבל Fun-Tuning שינתה את כללי המשחק לחלוטין. השיטה, שפותחה על ידי צוות חוקרים מאוניברסיטאות מרובות, מנצלת בחוכמה את ממשק תכנות היישומים (API) של tuning שגוגל מספקת בחינם למשתמשי ג'מיני.
על ידי ניתוח התגובות העדינות של מודל Gemini במהלך כוונון (למשל, כיצד הוא מגיב לשגיאות בנתונים), Fun-Tuning יכול לקבוע באופן אוטומטי את ה'קידומות' וה'סיומות' היעילות ביותר להסתרת פקודה זדונית. זה מגדיל משמעותית את הסבירות שהבינה המלאכותית תציית לכוונות הזדוניות של התוקף.
תוצאות הבדיקה מראות ש-Fun-Tuning משיג שיעור הצלחה של עד 82% בגרסאות מסוימות של Gemini, נתון שעולה על פחות מ-30% משיטות ההתקפה המסורתיות.
מה שמוסיף לסכנה של Fun-Tuning הוא העלות הנמוכה שלו. מכיוון שממשק ה-API של Google לכיוון כיוון זמין בחינם, עלות החישוב של יצירת מתקפה יעילה יכולה להיות נמוכה עד 10 דולר. יתר על כן, החוקרים מצאו כי מתקפה שתוכננה עבור גרסה אחת של Gemini ניתנת ליישום בהצלחה בקלות על גרסאות אחרות, מה שפותח את האפשרות של מתקפות נרחבות.
גוגל אישרה שהיא מודעת לאיום שמציב Fun-Tuning, אך טרם הגיבה האם הדבר ישנה את אופן פעולתו של ממשק ה-API של tuning. החוקרים מצביעים גם על הדילמה ההגנתית: הסרת המידע ש-Fun-Tuning מנצל מתהליך הכוונון תהפוך את ממשק ה-API לפחות שימושי עבור מפתחים לגיטימיים. לעומת זאת, השארתו כפי שהיא תמשיך להיות קרש קפיצה לניצול עבור גורמים פושעים.
הופעתה של Fun-Tuning היא אזהרה ברורה לכך שהעימות במרחב הקיברנטי נכנס לשלב חדש ומורכב יותר. בינה מלאכותית היא כעת לא רק מטרה אלא גם כלי ונשק בידי גורמים זדוניים.
[מודעה_2]
מקור: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm
תגובה (0)