מדענים אוסטרלים פיתחו טכניקה חדשה שיכולה למנוע ממערכות בינה מלאכותית (AI) ללמוד באופן לא חוקי מתמונות, יצירות אמנות ותוכן מקוון אחר.
על פי הסוכנות הלאומית למדע של אוסטרליה (CSIRO), הטכניקה משנה בעדינות את תוכן התמונות כדי להפוך אותן לבלתי קריאות עבור מודלים של בינה מלאכותית, תוך שהיא נותרת ללא שינוי לעין האנושית. זהו פרויקט שפותח על ידי CSIRO, בשיתוף פעולה עם מרכז המחקר השיתופי לאבטחת סייבר של אוסטרליה (CSCRC) ואוניברסיטת שיקגו (ארה"ב).
המחברים אומרים שהפריצה הזו יכולה לעזור לאמנים, ארגונים ומשתמשי מדיה חברתית להגן על עבודתם ונתוניהם האישיים מפני שימוש לאימון מערכות בינה מלאכותית או ליצירת דיפ-פייקים - סרטונים , תמונות או אודיו מציאותיים להפליא שנוצרו על ידי בינה מלאכותית. לדוגמה, משתמשים יוכלו להחיל שכבת מגן באופן אוטומטי על תמונות לפני פרסומן, ובכך למנוע מבינה מלאכותית ללמוד תווי פנים כדי ליצור דיפ-פייקים.
באופן דומה, ארגוני ביטחון עשויים להגן על תמונות לוויין רגישות או נתונים אודות איומי סייבר.
לדברי ד"ר דרוי וואנג, מדען ב-CSIRO, שיטה זו משתמשת ביסודות מתמטיים חזקים כדי להבטיח שמודלים של בינה מלאכותית לא יוכלו ללמוד מהתוכן הזה, או במילים אחרות, טכניקה זו הופכת את הנתונים ל"בלתי ניתנים ללמידה" עבור בינה מלאכותית ברמה המגנה על פרטיות וזכויות יוצרים, תוך שמירה על התועלת שלהם לבני אדם.
הגנה זו נשארת בתוקף גם אם הבינה המלאכותית מנסה להסתגל או עוברת הכשרה מחדש, הוסיף.
ד"ר וואנג אמר שניתן ליישם את הטכניקה באופן אוטומטי ובקנה מידה גדול. הוא אמר שפלטפורמת מדיה חברתית או אתר יוכלו להטמיע את שכבת המגן הזו בכל התמונות המועלות. זה יכול לרסן את התפשטות העומק-זיופים, להפחית גניבת קניין רוחני ולעזור למשתמשים לשמור על שליטה בתוכן שלהם.
בעוד שהשיטה ניתנת ליישום כרגע רק על תמונות, החוקרים מתכננים להרחיבה לטקסט, מוזיקה ווידאו. הטכנולוגיה עדיין בשלב התיאורטי והוכחה כיעילה רק במעבדה.
העבודה המדעית הנ"ל, שכותרתה "דוגמאות נתונים שניתן להוכיח שלא ניתן ללמוד", זכתה בפרס המחקר המצטיין בסימפוזיון אבטחת רשתות ומערכות מבוזרות (NDSS) לשנת 2025.
מקור: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
תגובה (0)