באזהרה שהופצה השבוע, ה-FBI מסר כי לאחרונה ראה עלייה במספר קורבנות הסחיטה שלטענתם נועדו להשתמש בבינה מלאכותית כדי לערוך תמונות רגילות, שנלקחו מפוסטים מקוונים, הודעות אישיות או שיחות וידאו , לגרסאות מזויפות.
משטרת ספרד עצרה פעם מתכנת שהשתמש בבינה מלאכותית כדי ליצור תמונות פורנוגרפיה מזויפות של ילדים. צילום: דיילי מייל
"התמונות נשלחות ישירות לקורבנות על ידי העבריינים לצורך סחיטה או הטרדה מינית. לאחר הפצתן, הקורבנות עלולות להתמודד עם אתגרים משמעותיים במניעת המשך השיתוף של התוכן המניפולטיבי, כמו גם בהסרתו מהאינטרנט", נכתב באזהרה.
הלשכה מסרה כי התמונות נראו "נאמנות למציאות", תוך שהיא מציינת כי גם ילדים היו מטרה במקרים מסוימים.
בפברואר, עצרה משטרת ספרד מתכנת מחשבים שהשתמש בבינה מלאכותית כדי ליצור תמונות מחרידות של התעללות בילדים, מה שנחשב לאחד המעצרים הראשונים מסוגו.
ה-FBI לא פירט פרטים על תוכניות הבינה המלאכותית המשמשות ליצירת תמונות מיניות, אך ציין כי ההתקדמות הטכנולוגית "משפרת ללא הרף את האיכות, ההתאמה האישית והנגישות של יצירת תוכן המונעת על ידי בינה מלאכותית".
עריכת תמונות רגילות ליצירת תמונות ארוטיות היא כמעט עתיקה כמו הצילום עצמו, אך הפיצוץ האחרון של כלי בינה מלאכותית בקוד פתוח הפך את התהליך לקל מאי פעם.
תמונות או סרטונים מזויפים לרוב אינם ניתנים להבחנה מגרסאות אמיתיות, וכמה אתרים ורשתות חברתיות המוקדשים ליצירה והחלפה של תמונות מיניות המופעלות על ידי בינה מלאכותית אף צצו בשנים האחרונות.
זה נחשב לאחד מסדרה של סיכונים שבינה מלאכותית יכולה להוות לחברה, כפי שמומחים דאגו והזהירו לגביהם לאחרונה.
הואנג אן (על פי דיילי מייל, רויטרס)
[מודעה_2]
מָקוֹר
תגובה (0)