Група дослідників у Німеччині нещодавно попередила про ризик упередженості під час використання чат-ботів на базі штучного інтелекту для скорочення дослідницького контенту. Проаналізувавши 4900 наукових рефератів, написаних людьми, команда використала кілька моделей штучного інтелекту для порівняння того, як ці системи обробляють інформацію. Результати показали, що більшість чат-ботів помиляються, надмірно узагальнюючи, навіть коли їх просять точно підсумувати.
Штучний інтелект схильний до упередженості під час узагальнення наукових досліджень.
У тестах моделі штучного інтелекту припускалися вп'ятеро більше помилок, ніж експерти-люди, коли їх не вказували. Навіть коли їх чітко запитували про точність, рівень помилок був вдвічі вищим, ніж у стандартному резюме. «Узагальнення іноді здаються нешкідливими, але насправді вони змінюють характер початкового дослідження», — сказав один із членів команди. «Це систематичне упередження».
Примітно, що новіші версії чат-бота не лише не вирішили проблему, а й фактично погіршили її. Завдяки своїй плавній та захопливій мові, згенеровані штучним інтелектом резюме можуть легко здаватися правдоподібними, тоді як фактичний зміст був спотворений. В одному випадку DeepSeek змінив фразу «безпечний та може бути успішно виконаний» на «безпечне та ефективне лікування» – неправильне тлумачення висновків початкового дослідження.
В іншому прикладі модель Лами рекомендувала ліки від діабету для молодих людей без зазначення дозування, частоти чи побічних ефектів. Якщо читач є лікарем або медичним працівником, який не перевіряє оригінальне дослідження, такі резюме можуть становити прямий ризик для пацієнтів.
Експерти кажуть, що це явище пов'язане зі способом навчання моделей штучного інтелекту. Багато чат-ботів сьогодні навчаються на вторинних даних, таких як науково-популярні новини, які вже були спрощені. Оскільки штучний інтелект продовжує узагальнювати скорочений контент, ризик спотворення зростає.
Експерти зі штучного інтелекту в галузі психічного здоров'я стверджують, що технічні бар'єри необхідно створювати на ранніх етапах розробки та використання штучного інтелекту.
Користувачам слід бути обережними, оскільки чат-боти можуть легко спотворювати контент.
Оскільки користувачі дедалі більше покладаються на чат-ботів зі штучним інтелектом для вивчення науки, невеликі помилки в інтерпретації можуть швидко накопичуватися та поширюватися, спричиняючи поширені хибні уявлення. У час, коли довіра до науки знижується, цей ризик стає ще більш тривожним і заслуговує на належну увагу.
Інтеграція штучного інтелекту в дослідження та поширення знань є незворотною тенденцією. Однак експерти стверджують, що технології не можуть замінити роль людини в розумінні та перевірці наукового контенту. Під час використання чат-ботів у галузях високого ризику, таких як медицина, точність має бути головним пріоритетом, а не зосереджуватися лише на плавному мовному досвіді чи швидкості реагування.
Джерело: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










Коментар (0)