کاربران اینترنت از هوش مصنوعی برای ایجاد تصاویر مظنون به قتل چارلی کرک استفاده میکنند. عکس: CBC . |
اداره تحقیقات فدرال ایالات متحده (FBI) دو عکس منتشر کرده است که مظنون تیراندازی منجر به قتل فعال چارلی کرک را نشان میدهد. از آنجا که عکسها کاملاً تار هستند، جامعه آنلاین به سرعت با استفاده از هوش مصنوعی (AI) نسخههای "ارتقاء یافته" از عکسها را منتشر کرد.
این تصاویر واضحتر و شفافتر از تصاویر اصلی به نظر میرسند، اما در واقع فقط حاصل حدس و گمان هستند. هوش مصنوعی توانایی « کشف » جزئیات پنهان در یک عکس تار را ندارد. در عوض، این ابزار بر اساس دادههای آموختهشده، شکافها را پیشبینی میکند و پر میکند، که میتواند به معنای ایجاد جزئیاتی باشد که در واقعیت وجود ندارند.
![]() |
عکسهای بهبود یافته با هوش مصنوعی از مظنون تیراندازی چارلی کرک، اما هیچ دو چهرهای یکسان نیستند. عکس: گروک. |
چندین نسخه بهبود یافته از تصاویر در زیر پست FBI منتشر شد. برخی از تصاویر ممکن است با استفاده از ابزار Grok در X ایجاد شده باشند، در حالی که اعتقاد بر این است که برخی دیگر با استفاده از پلتفرمهایی مانند ChatGPT و Gemini ایجاد شدهاند. با این حال، دقت این رندرها بسیار متفاوت است. برخی از تصاویر حتی نادرستیهای آشکاری را نشان میدهند، مانند تغییر رنگ پیراهن یا متفاوت نشان دادن چهره شخصیت با چانهای اغراقآمیز.
به نظر میرسد که این تصاویر با هدف «کمک» به جامعه برای شناسایی مظنون به اشتراک گذاشته شدهاند. اما در واقع، آنها همچنین به ابزاری برای جلب توجه، افزایش لایک و اشتراکگذاری در شبکههای اجتماعی تبدیل شدهاند.
کارشناسان هشدار میدهند که بعید است این تصاویر هوش مصنوعی مفیدتر از تصاویر اصلی افبیآی باشند. در واقع، در برخی موارد گذشته، تصاویر بهبود یافته با هوش مصنوعی نتایج بحثبرانگیزی به همراه داشتهاند.
برای مثال، یک عکس با وضوح پایین از باراک اوباما، رئیس جمهور سابق، توسط هوش مصنوعی «ارتقاء» داده شد تا یک مرد سفیدپوست را نشان دهد. در مورد دیگر، یک تومور غیرواقعی توسط هوش مصنوعی به سر دونالد ترامپ، رئیس جمهور آمریکا، اضافه شد.
این اختلافات نشان میدهد که هوش مصنوعی صرفاً از دادههای موجود استنباط میکند، نه اینکه آنچه را که در تصاویر تار از دست رفته است، به طور دقیق بازسازی کند. اگرچه این فناوری ممکن است در برخی زمینهها مفید باشد، اما تصاویر تولید شده توسط هوش مصنوعی نباید به عنوان شواهد قطعی در تحقیقات جنایی در نظر گرفته شوند.
خود افبیآی، در اطلاعیهاش، فقط عکس اصلی را منتشر کرد و از عموم مردم خواست در صورت امکان شناسایی فرد حاضر در عکس، اطلاعات خود را ارائه دهند. با این حال، موج «عکسهای خود-ارتقاءدهنده» در شبکههای اجتماعی به سرعت توجهها را به خود جلب کرد و سوالاتی را در مورد مسئولیت استفاده از ابزارهای هوش مصنوعی در موارد حساس مرتبط با امنیت و زندگی انسان مطرح کرد.
با گسترش استفاده از هوش مصنوعی، این حادثه یک مشکل را برجسته میکند: هوش مصنوعی میتواند تصاویری ایجاد کند که آنقدر واقعی به نظر میرسند که از نظر بصری فریبنده هستند، اما این بدان معنا نیست که قابل اعتماد هستند. به خصوص در تعقیب و گریزهای جنایی، دادههای نادرست میتوانند منجر به عواقب جدی شوند.
منبع: https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html











نظر (0)