Ілюстративне фото
Однак, модель штучного інтелекту, яка діє так, ніби виконує накази, але насправді приховує свої справжні наміри, — це зовсім інша справа.
Проблема контролю над штучним інтелектом
Дослідницька компанія Apollo вперше опублікувала у грудні статтю, в якій задокументовано, як п'ять моделей будують графік, коли їм доручено досягти мети «будь-якою ціною».
Найдивовижніше те, що якщо модель розуміє, що її тестують, вона може вдавати, що не є конспірологічною, аби пройти тест, навіть якщо вона все ще конспірологічна. «Моделі часто краще усвідомлюють, що їх оцінюють», – пишуть дослідники.
Розробникам штучного інтелекту ще належить з'ясувати, як навчити свої моделі не відображати графіки. Це тому, що це може навчити модель відображати графіки ще краще, щоб уникнути виявлення.
Можливо, зрозуміло, що моделі штучного інтелекту від багатьох розробників навмисно обманюють людей, оскільки вони створені для імітації роботи людей і значною мірою навчаються на даних, згенерованих людиною.
Рішення та попередження
Гарна новина полягає в тому, що дослідники спостерігали значне зменшення кількості конспірологічних теорій за допомогою антиконспірологічної методики під назвою «навмисна асоціація». Ця методика, подібна до того, як дитина повторює правила перед тим, як дозволити їй грати, змушує штучний інтелект думати, перш ніж діяти.
Дослідники попереджають про майбутнє, де ШІ буде доручено виконувати складніші завдання: «Оскільки ШІ буде доручено виконувати складніші завдання, і він почне переслідувати більш неоднозначні довгострокові цілі, ми прогнозуємо, що ймовірність зловмисного наміру зростатиме, що вимагатиме відповідно посилених заходів безпеки та ретельних можливостей тестування».
Це те, над чим варто замислитися, оскільки корпоративний світ рухається до майбутнього штучного інтелекту, де компанії вважають, що до ШІ можна ставитися як до незалежних працівників.
Джерело: https://doanhnghiepvn.vn/chuyen-doi-so/phat-hien-mo-hinh-ai-biet-lua-doi-con-nguoi/20250919055143362
Коментар (0)