وتُعتبر قدرة النموذج على التفكير وحل المشكلات الرياضية المعقدة والإجابة على أسئلة البحث العلمي خطوة كبيرة إلى الأمام في الجهود المبذولة لتطوير الذكاء العام الاصطناعي (AGI) - وهي آلات ذات قدرات معرفية تشبه قدرات الإنسان.
صرحت شركة OpenAI بأنها كانت حذرة للغاية بشأن كيفية طرح نموذج o1 للجمهور نظرًا لقدراته المتقدمة. الصورة: Getty Images
وفقًا لصحيفة فاينانشال تايمز، صنّفت شركة OpenAI خطر هذه النماذج الجديدة بأنه "متوسط" فيما يتعلق بالأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN)، وهو أعلى مستوى تقييم للشركة على الإطلاق. هذا يعني أن هذه التقنية قد "حسّنت بشكل ملحوظ" قدرة الخبراء على صنع أسلحة بيولوجية.
يقول الخبراء إن برامج الذكاء الاصطناعي القادرة على التفكير التفصيلي، وخاصة في أيدي الجهات السيئة، يمكن أن تزيد من خطر إساءة الاستخدام.
أكد البروفيسور يوشوا بينجيو، عالم الذكاء الاصطناعي الرائد عالميًا من جامعة مونتريال، أن هذا المستوى المتوسط من المخاطر يزيد من إلحاح لوائح الذكاء الاصطناعي، مثل مشروع قانون مجلس الشيوخ رقم 1047، الذي يُناقش حاليًا في كاليفورنيا. يُلزم هذا القانون مُطوّري الذكاء الاصطناعي باتخاذ تدابير للحد من خطر إساءة استخدام نماذجهم لتطوير أسلحة بيولوجية.
وفقًا لموقع The Verge، أصبح أمن وسلامة نماذج الذكاء الاصطناعي مصدر قلق كبير حيث تتسابق شركات التكنولوجيا مثل Google وMeta وAnthropic لبناء وتحسين أنظمة الذكاء الاصطناعي المتقدمة.
تتمتع هذه الأنظمة بالقدرة على تحقيق فوائد كبيرة في مساعدة البشر على إكمال المهام والمساعدة في مجموعة متنوعة من المجالات، ولكنها تشكل أيضًا تحديات من حيث السلامة والمسؤولية الاجتماعية.
كاو فونج (وفقًا لـ FT وReuters وThe Verge)
[إعلان 2]
المصدر: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
تعليق (0)