בחודשים האחרונים, מומחי בטיחות ילדים וחוקרים הזהירו כי בינה מלאכותית יצירתית עלולה להחריף התעללות ברשת.
מנכ"ל מטה, מארק צוקרברג, נואם בדיון בוועדת המשפט של הסנאט האמריקאי ב-31 בינואר 2024, מול קהל משתתפים הנושאים תמונות שנוצרו על ידי בינה מלאכותית. צילום: רויטרס
NCMEC טרם פרסמה את המספר הכולל של דיווחים על תוכן התעללות בילדים מכל המקורות שקיבלה בשנת 2023. אך בשנת 2022 היא קיבלה דיווחים על כ-88.3 מיליון קבצים בנוגע לבעיה.
"אנחנו מקבלים דיווחים מחברות הבינה המלאכותית החדשניות עצמן, פלטפורמות (מקוונות) ומאנשים מהציבור", אמר ג'ון שהאן, סגן נשיא NCMEC.
מנכ"לי מטה, X, טיקטוק, סנאפ ודיסקורד העידו בדיון בסנאט האמריקאי בנושא בטיחות ילדים בפלטפורמות מקוונות ביום רביעי (31 בינואר). מחוקקים אמריקאים שאלו חברות מדיה חברתית על מאמציהן להגן על ילדים מפני "טורפים מקוונים".
חוקרים במצפה האינטרנט של סטנפורד אמרו בדו"ח ביוני האחרון כי גורמים פושעים עלולים להשתמש בבינה מלאכותית גנרטיבית כדי לפגוע שוב ושוב בילדים בחיים האמיתיים על ידי יצירת תמונות מזויפות שלהם.
פאלון מקנולטי, מנהל CyberTipline של NCMEC, אשר מקבל דיווחים על ניצול ילדים ברשת, אמר כי תוכן שנוצר על ידי בינה מלאכותית הופך "יותר ויותר פוטוריאליסטי", מה שמקשה על קביעת האם הקורבנות הם אנשים אמיתיים.
מקנולטי אמר כי OpenAI, החברה שיצרה את ChatGPT, הקימה תהליך להגשת דוחות ל-NCMEC, והארגון נמצא בשיחות עם חברות בינה מלאכותית אחרות.
הואנג האי (לפי רויטרס, FT)
[מודעה_2]
מָקוֹר






תגובה (0)