Vietnam.vn - Nền tảng quảng bá Việt Nam

هوش مصنوعی جدید می‌تواند برای ساخت سلاح‌های بیولوژیکی مورد استفاده قرار گیرد

Báo Tuổi TrẻBáo Tuổi Trẻ14/09/2024


OpenAI thừa nhận AI mới có thể bị dùng để chế vũ khí sinh học - Ảnh 1.

گوشی که رابط یادگیری GPT-o1 شرکت OpenAI را نشان می‌دهد - عکس: فایننشال تایمز

طبق گزارش فایننشال تایمز در ۱۳ سپتامبر، شرکت OpenAI اذعان کرد که مدل GPT-o1 که به تازگی در ۱۲ سپتامبر عرضه شده است، خطر سوءاستفاده از هوش مصنوعی (AI) برای ساخت سلاح‌های بیولوژیکی را «به طور قابل توجهی» افزایش می‌دهد.

سندی که نحوه‌ی عملکرد GPT-o1 را توضیح می‌دهد و توسط OpenAI منتشر شده است، بیان می‌کند که مدل جدید دارای «سطح ریسک متوسط» برای مسائل مربوط به سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای است. این بالاترین سطح ریسکی است که OpenAI تاکنون به مدل‌های هوش مصنوعی خود اختصاص داده است.

طبق گفته OpenAI، این بدان معناست که GPT-o1 می‌تواند توانایی متخصصانی را که می‌خواهند از آنها برای ایجاد سلاح‌های بیولوژیکی سوءاستفاده کنند، «به طور چشمگیری بهبود بخشد».

میرا موراتی، مدیر ارشد فناوری (CTO) شرکت OpenAI، گفت که اگرچه GPT-o1 هنوز در مرحله آزمایش است، اما قابلیت‌های پیشرفته این مدل هنوز هم شرکت را مجبور می‌کند تا در مورد نقشه راه خود برای عموم بسیار "محتاط" باشد.

خانم موراتی همچنین تأیید کرد که این مدل توسط یک تیم چندرشته‌ای از متخصصان که توسط OpenAI استخدام شده‌اند تا محدودیت‌های مدل توسعه‌یافته توسط این شرکت را آزمایش کنند، به‌طور کامل آزمایش شده است.

خانم موراتی به اشتراک گذاشت که فرآیند آزمایش نشان داد که مدل GPT-o1 معیارهای ایمنی عمومی را بسیار بهتر از مدل‌های قبلی خود برآورده می‌کند.

نمایندگان OpenAI به همین جا بسنده نکردند و اطمینان دادند که نسخه آزمایشی GPT-o1 «برای استقرار ایمن» است و نمی‌تواند خطرات پیچیده‌تری نسبت به فناوری‌های توسعه‌یافته ایجاد کند.

با وجود اطمینان‌های فوق، بخش بزرگی از جامعه علمی و علاقه‌مندان به هوش مصنوعی هنوز نسبت به مسیر توسعه این فناوری چندان خوش‌بین نیستند.

نگرانی‌ها در مورد اینکه هوش مصنوعی با سرعت بسیار زیادی در حال توسعه است و از توسعه و تصویب مقررات حاکم بر آن پیشی می‌گیرد، رو به افزایش است.

پروفسور یوشوا بنگیو، دانشجوی علوم کامپیوتر در دانشگاه مونترال و یکی از دانشمندان برجسته هوش مصنوعی در جهان ، گفت که اگر OpenAI اکنون «خطر متوسط» سلاح‌های شیمیایی و بیولوژیکی را ایجاد می‌کند، «این تنها اهمیت و فوریت» قوانینی مانند آنچه در کالیفرنیا برای تنظیم این حوزه به شدت مورد بحث است را تقویت می‌کند.

این دانشمند تأکید کرد که نهادهای فوق به ویژه در زمینه هوش مصنوعی که به طور فزاینده‌ای به سطح هوش عمومی مصنوعی (AGI) نزدیک می‌شود، ضروری هستند، به این معنی که توانایی استدلال در سطح انسان را دارند.

آقای بنجیو ارزیابی کرد: «هرچه مدل‌های پیشگام هوش مصنوعی به هوش مصنوعی عمومی (AGI) نزدیک‌تر شوند، در صورت عدم اقدامات احتیاطی مناسب، خطرات بیشتری افزایش می‌یابد. توانایی استدلال بهبود یافته هوش مصنوعی و استفاده از آن برای کلاهبرداری بسیار خطرناک است.»



منبع: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm

نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

فصل طلایی و آرامش‌بخش هوانگ سو فی در کوه‌های مرتفع تای کان لین
روستایی در دا نانگ در بین ۵۰ روستای زیبای جهان در سال ۲۰۲۵
دهکده صنایع دستی فانوس در طول جشنواره نیمه پاییز مملو از سفارش می‌شود و به محض ثبت سفارش، سفارشات آماده می‌شوند.
در ساحل گیا لای، با احتیاط روی صخره تاب می‌خورد و به سنگ‌ها می‌چسبد تا جلبک دریایی جمع کند.

از همان نویسنده

میراث

شکل

کسب و کار

No videos available

اخبار

نظام سیاسی

محلی

محصول