Здатність моделі міркувати, вирішувати складні математичні задачі та відповідати на науково -дослідні питання розглядається як важливий крок вперед у зусиллях з розробки штучного загального інтелекту (ШЗІ) – машин з когнітивними здібностями, подібними до людських.
OpenAI заявила, що з особливою «обережністю» ставиться до того, як представила модель o1 громадськості, враховуючи її розширені можливості. Фото: Getty Images
За даними Financial Times, OpenAI оцінила ризик цих нових моделей як «середній» для проблем, пов’язаних з хімічною, біологічною, радіологічним та ядерним (ХБРЯ) зброєю, що є найвищим показником, який коли-небудь оцінювала компанія. Це означає, що технологія «значно покращила» здатність експертів створювати біологічну зброю.
Експерти кажуть, що програмне забезпечення штучного інтелекту, здатне до детального мислення, особливо в руках зловмисників, може збільшити ризик зловживань.
Професор Йошуа Бенхіо, провідний світовий науковець у галузі штучного інтелекту з Монреальського університету, наголосив, що цей середній рівень ризику підвищує терміновість нормативних актів щодо штучного інтелекту, таких як SB 1047, який зараз обговорюється в Каліфорнії. Цей законопроект вимагає від розробників штучного інтелекту вжити заходів для зменшення ризику неправильного використання їхніх моделей для розробки біологічної зброї.
За даними The Verge, безпека моделей штучного інтелекту стала серйозною проблемою, оскільки технологічні компанії, такі як Google, Meta та Anthropic, змагаються у створенні та вдосконаленні передових систем штучного інтелекту.
Ці системи мають потенціал принести велику користь, допомагаючи людям виконувати завдання та допомагаючи в різних сферах, але також створюють проблеми з точки зору безпеки та соціальної відповідальності.
Цао Фонг (за даними FT, Reuters, The Verge)
Джерело: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
Коментар (0)