Vietnam.vn - Nền tảng quảng bá Việt Nam

Новий штучний інтелект може бути використаний для створення біологічної зброї

Báo Tuổi TrẻBáo Tuổi Trẻ14/09/2024


OpenAI thừa nhận AI mới có thể bị dùng để chế vũ khí sinh học - Ảnh 1.

Телефон, на якому зображено навчальний інтерфейс OpenAI GPT-o1 – Фото: FINANCIAL TIMES

Згідно з повідомленням Financial Times від 13 вересня, компанія OpenAI визнала, що модель GPT-o1, яка була запущена щойно 12 вересня, «значно» збільшує ризик використання штучного інтелекту (ШІ) для створення біологічної зброї.

У документі, що пояснює принцип роботи GPT-o1, опублікованому OpenAI, зазначено, що нова модель має «середній рівень ризику» для проблем, пов’язаних з хімічною, біологічною, радіологічною та ядерною зброєю. Це найвищий рівень ризику, який OpenAI коли-небудь призначав своїм моделям штучного інтелекту.

За даними OpenAI, це означає, що GPT-o1 може «значно покращити» можливості експертів, які хочуть зловживати ним для створення біологічної зброї.

Міра Мураті, головний технічний директор (CTO) OpenAI, сказала, що хоча GPT-o1 все ще перебуває на стадії тестування, розширені можливості моделі все ще змушують компанію бути надзвичайно «обережною» щодо своєї дорожньої карти для громадськості.

Пані Мураті також підтвердила, що модель була ретельно протестована багатопрофільною командою експертів, найнятих OpenAI для перевірки меж моделі, розробленої компанією.

Процес тестування показав, що модель GPT-o1 набагато краще відповідає загальним критеріям безпеки, ніж її попередники, поділилася пані Мураті.

Не зупиняючись на досягнутому, представники OpenAI також запевнили, що пробна версія GPT-o1 «безпечна для розгортання» і не може створювати складніших ризиків, ніж розроблені технології.

Незважаючи на вищезазначені запевнення, значна частина наукової спільноти та тих, хто цікавиться штучним інтелектом, досі не дуже оптимістично налаштовані щодо напрямку розвитку цієї технології.

Зростають побоювання, що штучний інтелект розвивається занадто швидко та випереджає розробку та затвердження нормативних актів, що його регулюють.

Професор Йошуа Бенхіо, спеціаліст з інформатики в Монреальському університеті та один з провідних світових вчених у галузі штучного інтелекту, сказав, що якщо OpenAI зараз становить «середній ризик» хімічної та біологічної зброї, «це лише підкреслює важливість і терміновість» законів, таких як той, що гаряче обговорюється в Каліфорнії для регулювання цієї сфери.

Цей вчений наголосив, що вищезгадані інституції особливо необхідні в контексті того, що ШІ все більше наближається до рівня загального штучного інтелекту (ЗШІ), що означає здатність міркувати нарівні з людьми.

«Чим ближче новаторські моделі штучного інтелекту до загального штучного інтелекту (ЗШІ), тим більше ризиків зростатимуть, якщо не буде вжито належних запобіжних заходів. Покращена здатність ШІ до міркування та його використання для шахрайства є надзвичайно небезпечними», – оцінив пан Бенджіо.



Джерело: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm

Коментар (0)

No data
No data

У тій самій темі

У тій самій категорії

Відкрийте для себе єдине село у В'єтнамі, яке входить до списку 50 найкрасивіших сіл світу
Чому цього року популярні ліхтарі з червоними прапорами та жовтими зірками?
В'єтнам переміг у музичному конкурсі «Інтербачення 2025»
Затор на Му Канг Чай до вечора, туристи стікаються на пошуки стиглого рису в сезоні

Того ж автора

Спадщина

Фігура

Бізнес

No videos available

Новини

Політична система

Місцевий

Продукт