Vietnam.vn - Nền tảng quảng bá Việt Nam

احتمال فقدان البشر للسيطرة عندما تتصل روبوتات الدردشة الذكية بالإنترنت

VietNamNetVietNamNet15/04/2023

[إعلان 1]

بعد حصوله على حق الوصول إلى GPT-4، نظام الذكاء الاصطناعي وراء ChatGPT الشهير، طلب أندرو وايت من الذكاء الاصطناعي إنشاء وكيل عصبي جديد تمامًا.

كان أستاذ الهندسة الكيميائية بجامعة روتشستر من بين 50 أكاديميًا وخبيرًا عيّنتهم شركة OpenAI، المدعومة من مايكروسوفت والمصممة لـ GPT-4، العام الماضي لاختبار النظام. وعلى مدار الأشهر الستة المقبلة، سيُجري فريق الاختبار (الفريق الأحمر) "اختبارًا نوعيًا واختبارًا دقيقًا" للنموذج الجديد، بهدف "اختراقه".

فريق التعامل مع "السامة"

صرح وايت لصحيفة فاينانشال تايمز بأنه استخدم GPT-4 لاقتراح مركب يمكن استخدامه كسلاح كيميائي، وزوّد النموذج بمصادر معلومات جديدة، مثل الأوراق العلمية وأدلة الشركات المصنعة للمواد الكيميائية. ثم عثر روبوت الدردشة على جهة يمكنها إنتاج المركب المطلوب.

قال وايت: "أعتقد أن هذه التقنية ستُمكّن الناس من إجراء التجارب الكيميائية بشكل أسرع وأكثر دقة. لكن هناك أيضًا خطرًا كبيرًا يتمثل في أن يحاول البعض إنتاج مواد خطرة".

تحدثت صحيفة فاينانشال تايمز مع أكثر من اثني عشر عضوًا من فريق GPT-4 الأحمر. وهم مزيج من المهنيين ذوي الياقات البيضاء: أكاديميون، ومعلمون، ومحامون، ومحللو مخاطر، وباحثون أمنيون، ويتمركز معظمهم في الولايات المتحدة وأوروبا.

وقد سمحت النتائج المثيرة للقلق التي توصل إليها "الفريق الأحمر" لشركة OpenAI بمنع ظهور مثل هذه النتائج على الفور عندما تم إطلاق التكنولوجيا على نطاق أوسع للجمهور الشهر الماضي.

صُمم فريق الاختبار لمعالجة المخاوف الشائعة التي يثيرها نشر أنظمة الذكاء الاصطناعي القوية في المجتمع. تتمثل مهمة الفريق في طرح أسئلة استقصائية أو خطيرة لاختبار قدرة الأداة على الاستجابة لاستفسارات البشر بإجابات مفصلة و"محددة".

أرادت OpenAI البحث عن مشاكل مثل السمية والتحيز والتحيز اللغوي في النموذج. لذا، فحص الفريق الأحمر الأكاذيب والتلاعب باللغة والمعرفة العلمية الخطيرة. كما بحثوا في كيفية مساهمة هذه البيانات في الانتحال والأنشطة غير القانونية مثل الجرائم المالية والهجمات الإلكترونية، وكيف يمكن أن تُعرّض الأمن القومي واتصالات ساحة المعركة للخطر.

أُعيدت نتائج "الفريق الأحمر" إلى OpenAI، التي استخدمتها لتقليص و"إعادة تدريب" GPT-4 قبل نشره على نطاق أوسع. أمضى كل خبير ما بين 10 و40 ساعة في اختبار النموذج على مدار عدة أشهر. وتقاضى معظم المشاركين في المقابلات أجرًا يقارب 100 دولار أمريكي للساعة مقابل عملهم.

أعربت مصادر FT عن مخاوف مشتركة بشأن التطور السريع لنماذج اللغة وخاصة المخاطر المترتبة على ربطها بمصادر المعرفة الخارجية من خلال المكونات الإضافية.

قال خوسيه هيرنانديز-أورالو، عضو الفريق الأحمر لـ GPT-4 وأستاذ في معهد فالنسيا لأبحاث الذكاء الاصطناعي : "النظام مُجمّد حاليًا، ما يعني أنه لا يستطيع التعلّم أكثر أو أنه بلا ذاكرة. ولكن ماذا لو منحناه إمكانية الوصول إلى الإنترنت؟ قد يكون نظامًا قويًا للغاية ومتصلًا بالعالم ".

الخطر ينمو كل يوم

وتقول شركة OpenAI إنها تأخذ السلامة على محمل الجد، واختبرت المكونات الإضافية قبل الإطلاق، وستقوم بتحديث GPT-4 بانتظام مع استخدام المزيد من الأشخاص له.

إذا تم ربط أنظمة الذكاء الاصطناعي بالإنترنت "للتعلم الذاتي"، فهل ستؤدي إلى فقدان البشر السيطرة على العالم؟

استخدمت رويا باكزاد، الباحثة في مجال التكنولوجيا وحقوق الإنسان ، أسئلة باللغتين الإنجليزية والفارسية لاختبار أنماط الاستجابات عبر الجنس والتفضيلات العنصرية والتحيزات الدينية، وخاصة تلك المتعلقة بالحجاب.

وأقر باكزاد بفوائد هذه التكنولوجيا بالنسبة للمتحدثين غير الأصليين باللغة الإنجليزية، لكنه أشار إلى أن النموذج كان متحيزًا بشكل واضح ضد المجتمعات المهمشة، حتى في الإصدارات اللاحقة.

ووجد الخبير أيضًا أن الوهم - عندما يستجيب برنامج المحادثة الآلي بمعلومات ملفقة - كان أسوأ عند اختبار النموذج باللغة الفارسية، حيث وجد باكزاد معدلًا أعلى من الأسماء والأرقام والأحداث الملفقة مقارنة باللغة الإنجليزية.

أشار بورو غولو، وهو محامٍ في نيروبي والأفريقي الوحيد الذي اختبر النظام، إلى نبرة النظام التمييزية. قال غولو: "في مرحلة ما من الاختبار، تصرف النموذج كما لو كان شخصًا أبيض يتحدث معي. تسأل عن مجموعة معينة، فيعطيك رأيًا متحيزًا أو ردًا شديد التحيز".

من منظور الأمن القومي، تتباين الآراء حول مدى أمان النموذج الجديد. وقد دهشت لورين كان، الباحثة في مجلس العلاقات الخارجية، من مستوى التفاصيل التي قدمها الذكاء الاصطناعي في سيناريو هجوم إلكتروني على أنظمة عسكرية.

في هذه الأثناء، قال دان هندريكس، خبير سلامة الذكاء الاصطناعي في "الفريق الأحمر"، إن المكونات الإضافية قد تؤدي إلى خلق عالم "لا يستطيع البشر السيطرة عليه".

ماذا لو استطاع روبوت المحادثة نشر معلومات شخصية لشخص آخر، أو الوصول إلى حسابه المصرفي، أو إرسال الشرطة إلى منزله؟ إجمالاً، نحتاج إلى تقييمات سلامة أكثر صرامة قبل السماح للذكاء الاصطناعي باستغلال قوة الإنترنت، كما أكد دان.

وقالت هيذر فريس، التي تعمل في مركز الأمن والتكنولوجيا الناشئة بجامعة جورج تاون، والذي اختبر GPT-4 لقدرته على مساعدة المجرمين، إن المخاطر ستستمر في الارتفاع مع استخدام المزيد من الأشخاص لهذه التكنولوجيا.

وتقترح إنشاء دفتر عام للإبلاغ عن الحوادث الناجمة عن نماذج لغوية كبيرة، على غرار أنظمة الإبلاغ عن الأمن السيبراني أو الاحتيال على المستهلك.

وفقا لصحيفة فاينانشال تايمز


[إعلان 2]
مصدر

تعليق (0)

No data
No data

نفس الفئة

الألعاب النارية تنفجر، والسياحة تتسارع، ودا نانغ تسجل نجاحًا في صيف 2025
استمتع بصيد الحبار الليلي ومشاهدة نجم البحر في جزيرة اللؤلؤ فو كوك
اكتشف عملية صنع أغلى أنواع شاي اللوتس في هانوي
استمتع بمشاهدة الباغودا الفريدة المصنوعة من أكثر من 30 طنًا من القطع الخزفية في مدينة هوشي منه

نفس المؤلف

إرث

شكل

عمل

No videos available

أخبار

النظام السياسي

محلي

منتج