על פי BGR , דו"ח מחקר חדש פרסם זה עתה טכניקה מדאיגה בשם 'Fun-Tuning', המשתמשת בבינה מלאכותית (AI) עצמה כדי ליצור באופן אוטומטי התקפות הזרקה מהירה יעילות ביותר המכוונות לדגמי בינה מלאכותית מתקדמים אחרים, כולל ג'מיני של גוגל.
השיטה הופכת את "פיצוח" הבינה המלאכותית למהירה, זולה וקלה מאי פעם, ומסמנת הסלמה חדשה במלחמת הסייבר הקשורה לבינה מלאכותית.
הסכנה כאשר אנשים רעים משתמשים בבינה מלאכותית כדי לשבור את הבינה המלאכותית
הזרקה מהירה (Prompt Injection) היא טכניקה שבה יריב מתגנב הוראות זדוניות לנתוני הקלט של מודל בינה מלאכותית (למשל, באמצעות הערות בקוד המקור, טקסט מוסתר באינטרנט). המטרה היא 'להטעות' את הבינה המלאכותית, לאלץ אותה לעקוף כללי בטיחות מתוכנתים מראש, מה שמוביל לתוצאות חמורות כגון דליפת נתונים רגישים, מתן מידע כוזב או ביצוע התנהגויות מסוכנות אחרות.
האקרים משתמשים בבינה מלאכותית כדי לתקוף בינה מלאכותית
תמונה: צילום מסך לינקדאין
בעבר, ביצוע מוצלח של התקפות אלו, במיוחד על דגמים "סגורים" כמו ג'מיני או GPT-4, דרש לעתים קרובות בדיקות ידניות מורכבות וגוזלות זמן.
אבל Fun-Tuning שינתה את כללי המשחק לחלוטין. השיטה, שפותחה על ידי צוות חוקרים מאוניברסיטאות מרובות, מנצלת בחוכמה את ממשק תכנות היישומים (API) המדויק מאוד שגוגל מספקת בחינם למשתמשי ג'מיני.
על ידי ניתוח התגובות העדינות של מודל Gemini במהלך כוונון (למשל, כיצד הוא מגיב לשגיאות בנתונים), Fun-Tuning יכול לקבוע באופן אוטומטי את ה'קידומות' וה'סיומות' היעילות ביותר כדי להסוות פקודה זדונית. זה מגדיל משמעותית את הסבירות שהבינה המלאכותית תציית לכוונות הזדוניות של התוקף.
תוצאות הבדיקה מראות ש-Fun-Tuning משיג שיעור הצלחה של עד 82% בגרסאות מסוימות של Gemini, נתון שעולה על פחות מ-30% משיטות ההתקפה המסורתיות.
מה שהופך את Fun-Tuning למסוכן עוד יותר הוא עלותו הנמוכה. מכיוון ש-API הכוונון של גוגל זמין בחינם, עלות החישוב של יצירת מתקפה יעילה יכולה להיות נמוכה עד 10 דולר. יתר על כן, החוקרים מצאו כי מתקפה שתוכננה עבור גרסה אחת של Gemini ניתנת ליישום בהצלחה בקלות על גרסאות אחרות, מה שפותח את האפשרות של מתקפות נרחבות.
גוגל אישרה שהיא מודעת לאיום שמציב Fun-Tuning, אך טרם הגיבה האם הדבר ישנה את אופן פעולתו של ממשק ה-API של tuning. הצוות מצביע גם על הדילמה ההגנתית: הסרת המידע ש-Fun-Tuning מנצל מתהליך הכוונון תהפוך את ממשק ה-API לפחות שימושי עבור מפתחים לגיטימיים. לעומת זאת, השארתו כפי שהיא תמשיך להיות קרש קפיצה לניצול עבור גורמים פושעים.
הופעתה של Fun-Tuning היא אזהרה ברורה לכך שהעימות במרחב הקיברנטי נכנס לשלב חדש ומורכב יותר. בינה מלאכותית היא כעת לא רק מטרה אלא גם כלי ונשק בידי גורמים זדוניים.
[מודעה_2]
מקור: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






תגובה (0)