وتضمن محتوى الذكاء الاصطناعي المضلِّل حقائق ملفقة ونصائح طبية وأخبار كاذبة عن وفاة المشاهير، مما أثار مخاوف جديدة من أن التكنولوجيا قد تؤدي إلى تفاقم مشكلة المعلومات المضللة عبر الإنترنت.
أصبحت المخاوف بشأن المواقع العائمة التي تستخدم الذكاء الاصطناعي لنشر الأخبار الكاذبة حقيقة واقعة. صورة توضيحية: جي آي
وتم إصدار التقريرين بشكل منفصل من قبل NewsGuard، وهي شركة تتعقب المعلومات المضللة عبر الإنترنت، وShadowDragon، وهي شركة توفر الموارد والتدريب للتحقيقات الرقمية.
قال ستيفن بريل، الرئيس التنفيذي لشركة نيوز جارد، في بيان: "يتزايد انعدام ثقة القراء بمصادر الأخبار، ويعود ذلك جزئيًا إلى عدم قدرتهم على التمييز بين المصدر الموثوق والمصدر غير الموثوق". وأضاف: "هذه الموجة الجديدة من المواقع المُنشأة بالذكاء الاصطناعي ستُصعّب على القراء معرفة من يُزوّدهم بالأخبار، مما يُقوّض الثقة أكثر".
حددت NewsGuard 125 موقعًا إلكترونيًا، تتراوح من الأخبار إلى معلومات نمط الحياة ويتم نشرها بـ 10 لغات، مع محتوى مكتوب بالكامل أو بشكل أساسي باستخدام أدوات الذكاء الاصطناعي.
وتشمل المواقع بوابة صحية قالت NewsGuard إنها نشرت أكثر من 50 مقالة تم إنشاؤها بواسطة الذكاء الاصطناعي تقدم نصائح طبية.
وقالت شركة NewsGuard إن المواقع الإلكترونية كانت تغمرها الإعلانات في كثير من الأحيان، مما يشير إلى أن المحتوى غير الأصلي تم إنشاؤه لجذب الإعلانات لأصحاب المواقع، الذين كانوا في كثير من الأحيان مجهولين تمامًا.
كما عثرت شركة ShadowDragon على محتوى زائف على مواقع إلكترونية ومنصات تواصل اجتماعي، بما في ذلك إنستغرام وفي تقييمات أمازون. وأشارت الشركة أيضًا إلى العديد من حسابات إنستغرام التي يبدو أنها تستخدم ChatGPT أو أدوات ذكاء اصطناعي أخرى لكتابة أوصاف أسفل الصور ومقاطع الفيديو .
للعثور على أمثلة، بحث الباحثون عن معلومات مضللة صارخة وردود جاهزة غالبًا ما تُنتجها أدوات الذكاء الاصطناعي. حتى أن بعض المواقع لم تحذف المعلومات التي ولّدتها تحذيرات محتوى الذكاء الاصطناعي بعد أن طُلب منها كتابة مقالات تحتوي على معلومات مضللة أو محتوى ضار.
وجد شادو دراجون رسائل كهذه على منصة التواصل الاجتماعي للوظائف لينكدإن، وفي منشورات على تويتر، والعديد من منصات التواصل الاجتماعي الأخرى. نُشرت بعض منشورات تويتر بواسطة روبوتات، مثل ReplyGPT، تستجيب تلقائيًا لتعليقات المستخدمين.
هوانغ هاي (بحسب NewsGuard، NYT)
[إعلان 2]
مصدر
تعليق (0)