משתמשי אינטרנט משתמשים בבינה מלאכותית כדי ליצור תמונות של החשוד ברצח של צ'רלי קירק. צילום: CBC . |
הלשכה הפדרלית לחקירות אמריקאיות (FBI) פרסמה שתי תמונות המציגות את החשוד בירי בו נרצח הפעיל צ'רלי קירק. מכיוון שהתמונות מטושטשות למדי, הקהילה המקוונת הגיבה במהירות עם גרסאות "משודרגות" של התמונות באמצעות בינה מלאכותית (AI).
תמונות אלו נראות חדות וברורות יותר מהמקוריות, אך למעשה הן רק תוצר של ספקולציה. לבינה מלאכותית אין את היכולת " לגלות " פרטים נסתרים בתמונה מטושטשת. במקום זאת, הכלי מנבא וממלא את הפערים על סמך נתונים שנלמדו, מה שיכול לגרום ליצירת פרטים שאינם קיימים במציאות.
![]() |
תמונות משופרות בבינה מלאכותית של החשוד בירי בצ'רלי קירק, אך אין שני פנים זהות. צילום: גרוק. |
מספר גרסאות משופרות של התמונות פורסמו תחת הפוסט של ה-FBI. ייתכן שחלק מהתמונות נוצרו באמצעות כלי Grok ב-X, בעוד שאחרות ככל הנראה נוצרו באמצעות פלטפורמות כמו ChatGPT ו-Gemini. עם זאת, הדיוק של עיבודים אלה משתנה מאוד. חלק מהתמונות אף מראות אי דיוקים ברורים, כגון שינוי צבע החולצה או גרימת מראה שונה לפנים של הדמות עם סנטר מוגזם.
נראה כי תמונות אלו שותפו במטרה "לעזור" לקהילה לזהות את החשוד. אך במציאות, הן גם הפכו לכלי למשיכת תשומת לב, להגדלת לייקים ושיתופים ברשתות החברתיות.
מומחים מזהירים כי לא סביר שתמונות אלו של בינה מלאכותית יהיו שימושיות יותר מהמקוריות של ה-FBI. למעשה, במקרים קודמים, תמונות משופרות על ידי בינה מלאכותית הניבו תוצאות שנויות במחלוקת.
לדוגמה, תמונה ברזולוציה נמוכה של הנשיא לשעבר ברק אובמה "שודרגה" על ידי בינה מלאכותית כדי להראות אדם לבן. במקרה אחר, לתמונה של הנשיא דונלד טראמפ נוסף גידול שלא קיים לראשו על ידי בינה מלאכותית.
פערים אלה מצביעים על כך שבינה מלאכותית פשוט מסיקה מנתונים קיימים, במקום לשחזר במדויק את מה שאבד בתמונות מטושטשות. בעוד שהטכנולוגיה עשויה להיות שימושית בהקשרים מסוימים, תמונות שנוצרו על ידי בינה מלאכותית לא צריכות להיחשב כראיה חותכת בחקירות פליליות.
ה-FBI עצמו, בהודעתו, פרסם רק את התמונה המקורית וקרא לציבור לספק מידע אם יוכל לזהות את האדם שבתמונה. עם זאת, גל "התמונות המשדרגות את עצמן" ברשתות החברתיות משך במהירות תשומת לב, והעלה שאלות לגבי האחריות בשימוש בכלי בינה מלאכותית במקרים רגישים הקשורים לביטחון וחיי אדם.
ככל שבינה מלאכותית הופכת לשימוש נרחב יותר, תקרית זו מדגישה בעיה: בינה מלאכותית יכולה ליצור תמונות שנראות כל כך אמיתיות עד שהן מטעות ויזואלית, אך אין זה אומר שהן אמינות. במיוחד בפשעים פליליים, נתונים לא מדויקים עלולים להוביל לתוצאות חמורות.
מקור: https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html











תגובה (0)