النموذج قادر على التفكير وحل المشكلات الرياضية المعقدة والإجابة على أسئلة البحث العلمي، وهو ما يعتبر خطوة مهمة إلى الأمام في الجهود المبذولة لتطوير الذكاء العام الاصطناعي (AGI) - الآلات ذات القدرات المعرفية مثل البشر.
وقالت شركة OpenAI إنها كانت "حذرة" بشكل خاص بشأن كيفية تقديم نموذج o1 للجمهور نظرًا لقدراته المتقدمة. الصورة: جيتي إيماجز
وبحسب صحيفة فاينانشيال تايمز، صنفت شركة OpenAI مخاطر هذه النماذج الجديدة على أنها "متوسطة" فيما يتعلق بالقضايا المتعلقة بالأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN)، وهي أعلى درجة قامت الشركة بتقييمها على الإطلاق. ويعني هذا أن التكنولوجيا "حسنت بشكل كبير" قدرة الخبراء على صنع الأسلحة البيولوجية.
وبحسب الخبراء، فإن برامج الذكاء الاصطناعي القادرة على التفكير التفصيلي، خاصة في أيدي الجهات السيئة، يمكن أن تزيد من خطر إساءة الاستخدام.
وأكد البروفيسور يوشوا بينجيو، وهو عالم رائد عالميًا في مجال الذكاء الاصطناعي من جامعة مونتريال، أن هذا المستوى المتوسط من المخاطر يزيد من الحاجة الملحة إلى سن لوائح الذكاء الاصطناعي، مثل مشروع القانون SB 1047 الذي تتم مناقشته في كاليفورنيا. ويتطلب مشروع القانون من مصنعي الذكاء الاصطناعي اتخاذ خطوات لتقليل مخاطر إساءة استخدام نماذجهم لتطوير أسلحة بيولوجية.
وفقًا لموقع The Verge، أصبح أمن وسلامة نماذج الذكاء الاصطناعي مصدر قلق كبير حيث تتسابق شركات التكنولوجيا مثل Google وMeta وAnthropic لبناء وتحسين أنظمة الذكاء الاصطناعي المتقدمة.
تتمتع هذه الأنظمة بالقدرة على تقديم فوائد عظيمة في مساعدة البشر على إكمال المهام وتقديم المساعدة في مجموعة متنوعة من المجالات، ولكنها تشكل أيضًا تحديات تتعلق بالسلامة والمسؤولية الاجتماعية.
كاو فونج (وفقا لـ FT، رويترز، ذا فيرج)
[إعلان 2]
المصدر: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
تعليق (0)