בינה מלאכותית (AI) כמו ChatGPT הייתה סנסציה עולמית מתחילת 2023, אך בינה מלאכותית זו לא תמיד משמשת למטרות חיוביות. לאחרונה, מומחה אבטחה מצא דרך לבקש מ-ChatGPT ליצור קוד זדוני במהלך בדיקות.
אהרון מולגרו, מומחה אבטחה ב-Forcepoint, שיתף את הסיכון הכרוכה בכתיבת תוכנות זדוניות באמצעות הצ'אטבוט של OpenAI. למרות ש-ChatGPT תוכנן למנוע ממשתמשים לבקש מבינה מלאכותית לעצב תוכנות זדוניות, אהרון עדיין מצא פרצה בכך שיצר הנחיות לבינה מלאכותית לכתוב קוד תכנות שורה אחר שורה. כאשר שולבו יחד, אהרון הבין שיש בידיו כלי ביצוע גניבת נתונים בלתי ניתן לגילוי, כה מתוחכם עד שניתן להשוות אותו לתוכנות הזדוניות המתוחכמות ביותר של ימינו.
כל שורת פקודה שנוצרת על ידי ChatGPT, כאשר היא משולבת, יכולה להפוך לתוכנה זדונית מתוחכמת.
התגלית של מולגרו היא קריאת השכמה לגבי הפוטנציאל של שימוש בבינה מלאכותית ליצירת תוכנות זדוניות מסוכנות ללא צורך בקבוצת האקרים, או אפילו בכותב שורת קוד אחת על ידי יוצר הכלי.
התוכנה של מולגרו מוסווית כאפליקציית שומר מסך, אך מסוגלת להפעיל את עצמה באופן אוטומטי במכשירים מבוססי Windows. לאחר שהיא נמצאת במערכת ההפעלה, התוכנה הזדונית "חודרת" לכל קובץ, כולל עורכי טקסט של Word, קבצי תמונות וקובצי PDF, ומחפשת נתונים לגניבה.
ברגע שיש לה את מה שהיא צריכה, התוכנה מפרקת את המידע ומצרפת אותו לקבצי תמונה במחשב. כדי להימנע מגילוי, התמונות מועלות לתיקייה ב-Google Drive. הנוזקה כה חזקה משום שמולגרו יכולה לכוונן ולשפר את התכונות שלה כדי להימנע מגילוי באמצעות פקודות פשוטות המוזנות ב-ChatGPT.
למרות שמדובר בבדיקה פרטית של מומחי אבטחה ולא בוצעו מתקפות מחוץ לתחום הבדיקה, קהילת אבטחת הסייבר עדיין מכירה בסכנה הטמונה בפעילויות המשתמשות ב-ChatGPT. מולגרו טוען שאין לו ניסיון רב בתכנות, אך הבינה המלאכותית של OpenAI עדיין אינה חזקה וחכמה מספיק כדי למנוע את הבדיקה שלו.
[מודעה_2]
קישור למקור
תגובה (0)