في هذا السياق، انتشرت على مواقع التواصل الاجتماعي الأمريكية في 22 مايو/أيار صورة لانفجار قرب البنتاغون، مُعدّة بواسطة الذكاء الاصطناعي، ما تسبب في هبوط حاد في سوق الأسهم في وقت قصير، مما أثار مخاوف بشأن الأخبار الكاذبة الصادرة عن الذكاء الاصطناعي.
صورة مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي لانفجار بالقرب من البنتاغون. |
سارع نيك ووترز، من بيلينغكات، وهي مجموعة إلكترونية لتدقيق الحقائق، إلى الإشارة إلى بعض العيوب الملحوظة في الصورة. أولًا، لا يوجد شهود عيان يؤكدون الحادثة. كما أن المبنى في الصورة لا يشبه البنتاغون. بعض التفاصيل غير المألوفة، مثل أعمدة الإنارة البارزة والأعمدة السوداء البارزة من الرصيف، تُشير إلى أن الصورة غير حقيقية.
هناك العديد من أدوات إعادة بناء الذكاء الاصطناعي، مثل Midjourney وDall-e 2 وStable Diffusion، القادرة على إنتاج صور واقعية. ومع ذلك، تُسهم هذه الأدوات في سد الثغرات عند نقص البيانات.
توصلت الجزيرة إلى بعض التدابير للتمييز بين الصور المولدة بواسطة الذكاء الاصطناعي والصور الحقيقية للأحداث الكبرى عندما تظهر على الإنترنت على النحو التالي:
- في حالة وقوع انفجار أو أي حدث كبير آخر، فغالبًا ما تكون هناك معلومات واقعية من أشخاص متعددين ومن وجهات نظر متعددة.
من ينشر المحتوى؟ أين يقع موقعه وأين تُقام الفعالية؟ ما الحسابات التي يتابعها ومن يتابعها؟ هل يمكنك التواصل معه أو التحدث إليه؟
- تحليل الصور والمناطق المحيطة بها: ابحث عن أدلة في الصورة مثل المواقع القريبة، وإشارات المرور، وما إلى ذلك لمساعدتك في تحديد مكان أو توقيت حدوث الحدث.
بالنسبة لصور الأشخاص، انتبه لأعينهم وأيديهم ووضعياتهم العامة. عادةً ما تعاني مقاطع الفيديو المُولّدة بالذكاء الاصطناعي والتي تُحاكي البشر، والتي تُسمى التزييف العميق، من مشاكل في الرمش لأن معظم مجموعات بيانات التدريب لا تحتوي على وجوه بأعين مغلقة. لن تُمسك الأيدي بالأشياء بشكل صحيح.
- غالبًا ما تكون بشرة الأشخاص في الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي ناعمة، وحتى شعرهم وأسنانهم ستكون مثالية بشكل لا يصدق.
[إعلان 2]
مصدر
تعليق (0)