توانایی این مدل در استدلال، حل مسائل پیچیده ریاضی و پاسخ به سوالات تحقیقات علمی، گامی بزرگ در جهت توسعه هوش عمومی مصنوعی (AGI) - ماشینهایی با تواناییهای شناختی شبیه به انسان - تلقی میشود.
OpenAI اعلام کرد که با توجه به قابلیتهای پیشرفته مدل o1، در مورد نحوهی عرضهی عمومی آن «محتاطانه» عمل کرده است. عکس: گتی ایمیجز
طبق گزارش فایننشال تایمز، OpenAI ریسک این مدلهای جدید را برای مسائل مربوط به سلاحهای شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای (CBRN) «متوسط» ارزیابی کرده است، بالاترین میزانی که این شرکت تاکنون ارزیابی کرده است. این بدان معناست که این فناوری توانایی متخصصان در ساخت سلاحهای بیولوژیکی را «به طور قابل توجهی بهبود بخشیده است».
کارشناسان میگویند نرمافزار هوش مصنوعی که قادر به استدلال دقیق است، بهویژه در دست بازیگران بد، میتواند خطر سوءاستفاده را افزایش دهد.
پروفسور یوشوا بنگیو، دانشمند برجسته هوش مصنوعی از دانشگاه مونترال، تأکید کرده است که این سطح ریسک متوسط، ضرورت وضع مقررات هوش مصنوعی، مانند SB 1047 که در حال حاضر در کالیفرنیا مورد بحث است را افزایش میدهد. این لایحه، سازندگان هوش مصنوعی را ملزم میکند تا اقداماتی را برای کاهش خطر سوءاستفاده از مدلهایشان برای توسعه سلاحهای بیولوژیکی انجام دهند.
طبق گزارش The Verge، امنیت و ایمنی مدلهای هوش مصنوعی به یک نگرانی عمده تبدیل شده است، زیرا شرکتهای فناوری مانند گوگل، متا و آنتروپیک در حال رقابت برای ساخت و بهبود سیستمهای پیشرفته هوش مصنوعی هستند.
این سیستمها پتانسیل ایجاد مزایای زیادی در کمک به انسانها برای انجام وظایف و کمک در زمینههای مختلف را دارند، اما از نظر ایمنی و مسئولیت اجتماعی نیز چالشهایی را ایجاد میکنند.
کائو فونگ (طبق گزارشهای فایننشال تایمز، رویترز، ورج)
منبع: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html






نظر (0)