מדענים אוסטרלים פיתחו טכניקה חדשה שיכולה למנוע ממערכות בינה מלאכותית (AI) ללמוד באופן לא חוקי מתמונות, יצירות אמנות ותוכן מקוון אחר.
הטכניקה, שפותחה על ידי הסוכנות הלאומית למדע של אוסטרליה (CSIRO), משנה בעדינות את תוכן התמונות כדי להפוך אותן לבלתי קריאות עבור מודלים של בינה מלאכותית, תוך שהיא נותרת ללא שינוי לעין האנושית, כך עולה מפרויקט שפותח על ידי CSIRO בשיתוף פעולה עם מרכז המחקר השיתופי לאבטחת סייבר של אוסטרליה (CSCRC) ואוניברסיטת שיקגו.
המחברים אומרים שהפריצה הזו יכולה לסייע לאמנים, ארגונים ומשתמשי מדיה חברתית להגן על עבודתם ונתוניהם האישיים מפני שימוש לאימון מערכות בינה מלאכותית או ליצירת דיפ-פייקים - סרטונים , תמונות או אודיו מזויפים מציאותיים ביותר שנוצרו על ידי בינה מלאכותית. לדוגמה, משתמשים יוכלו להחיל שכבת מגן באופן אוטומטי על תמונות לפני פרסומן, ובכך למנוע מבינה מלאכותית ללמוד תווי פנים כדי ליצור דיפ-פייקים.
באופן דומה, ארגוני ביטחון עשויים להגן על תמונות לוויין רגישות או נתונים אודות איומי סייבר.
לדברי ד"ר דרוי וואנג, מדען ב-CSIRO, שיטה זו משתמשת ביסודות מתמטיים חזקים כדי להבטיח שמודלים של בינה מלאכותית לא יוכלו ללמוד מהתוכן הזה, או במילים אחרות, טכניקה זו הופכת את הנתונים ל"בלתי ניתנים ללמידה" עבור בינה מלאכותית במידה המגנה על פרטיות וזכויות יוצרים, תוך שמירה על התועלת שלהם לבני אדם.
הגנה זו נשארת בתוקף גם אם הבינה המלאכותית מנסה להסתגל או עוברת הכשרה מחדש, הוסיף.
ד"ר וואנג אמר שניתן ליישם את הטכניקה באופן אוטומטי ובקנה מידה גדול. הוא אמר שפלטפורמת מדיה חברתית או אתר אינטרנט יוכלו להטמיע את שכבת המגן הזו בכל התמונות המועלות. זה יכול להגביל את התפשטותן של זיופים עמוקים, להפחית גניבת קניין רוחני ולעזור למשתמשים לשמור על שליטה בתוכן שלהם.
בעוד שהשיטה ניתנת ליישום כרגע רק על תמונות, החוקרים מתכננים להרחיבה לטקסט, מוזיקה ווידאו. הטכנולוגיה עדיין בשלב התיאורטי והוכחה כיעילה רק במעבדה.
העבודה המדעית הנ"ל, שכותרתה "דוגמאות נתונים שניתן להוכיח שלא ניתן ללמוד", זכתה בפרס המחקר המצטיין בסימפוזיון אבטחת רשתות ומערכות מבוזרות (NDSS) לשנת 2025.
מקור: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp






תגובה (0)