گوشی که رابط یادگیری GPT-o1 شرکت OpenAI را نشان میدهد - عکس: فایننشال تایمز
طبق گزارش فایننشال تایمز در ۱۳ سپتامبر، شرکت OpenAI اذعان کرد که مدل GPT-o1 که به تازگی در ۱۲ سپتامبر عرضه شده است، خطر سوءاستفاده از هوش مصنوعی (AI) برای ساخت سلاحهای بیولوژیکی را «به طور قابل توجهی» افزایش میدهد.
سندی که نحوهی عملکرد GPT-o1 را توضیح میدهد و توسط OpenAI منتشر شده است، بیان میکند که مدل جدید دارای «سطح ریسک متوسط» برای مسائل مربوط به سلاحهای شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای است. این بالاترین سطح ریسکی است که OpenAI تاکنون به مدلهای هوش مصنوعی خود اختصاص داده است.
طبق گفته OpenAI، این بدان معناست که GPT-o1 میتواند توانایی متخصصانی را که میخواهند از آنها برای ایجاد سلاحهای بیولوژیکی سوءاستفاده کنند، «به طور چشمگیری بهبود بخشد».
میرا موراتی، مدیر ارشد فناوری (CTO) شرکت OpenAI، گفت که اگرچه GPT-o1 هنوز در مرحله آزمایش است، اما قابلیتهای پیشرفته این مدل هنوز هم شرکت را مجبور میکند تا در مورد نقشه راه خود برای عموم بسیار "محتاط" باشد.
خانم موراتی همچنین تأیید کرد که این مدل توسط یک تیم چندرشتهای از متخصصان که توسط OpenAI استخدام شدهاند تا محدودیتهای مدل توسعهیافته توسط این شرکت را آزمایش کنند، بهطور کامل آزمایش شده است.
خانم موراتی به اشتراک گذاشت که فرآیند آزمایش نشان داد که مدل GPT-o1 معیارهای ایمنی عمومی را بسیار بهتر از مدلهای قبلی خود برآورده میکند.
نمایندگان OpenAI به همین جا بسنده نکردند و اطمینان دادند که نسخه آزمایشی GPT-o1 «برای استقرار ایمن» است و نمیتواند خطرات پیچیدهتری نسبت به فناوریهای توسعهیافته ایجاد کند.
با وجود اطمینانهای فوق، بخش بزرگی از جامعه علمی و علاقهمندان به هوش مصنوعی هنوز نسبت به مسیر توسعه این فناوری چندان خوشبین نیستند.
نگرانیها در مورد اینکه هوش مصنوعی با سرعت بسیار زیادی در حال توسعه است و از توسعه و تصویب مقررات حاکم بر آن پیشی میگیرد، رو به افزایش است.
پروفسور یوشوا بنگیو، دانشجوی علوم کامپیوتر در دانشگاه مونترال و یکی از دانشمندان برجسته هوش مصنوعی در جهان ، گفت که اگر OpenAI اکنون «خطر متوسط» سلاحهای شیمیایی و بیولوژیکی را ایجاد میکند، «این تنها اهمیت و فوریت» قوانینی مانند آنچه در کالیفرنیا برای تنظیم این حوزه به شدت مورد بحث است را تقویت میکند.
این دانشمند تأکید کرد که نهادهای فوق به ویژه در زمینه هوش مصنوعی که به طور فزایندهای به سطح هوش عمومی مصنوعی (AGI) نزدیک میشود، ضروری هستند، به این معنی که توانایی استدلال در سطح انسان را دارند.
آقای بنجیو ارزیابی کرد: «هرچه مدلهای پیشگام هوش مصنوعی به هوش مصنوعی عمومی (AGI) نزدیکتر شوند، در صورت عدم اقدامات احتیاطی مناسب، خطرات بیشتری افزایش مییابد. توانایی استدلال بهبود یافته هوش مصنوعی و استفاده از آن برای کلاهبرداری بسیار خطرناک است.»
منبع: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
نظر (0)