Ілюстративне фото.
Штучний інтелект присутній майже в усіх аспектах людського життя, від повсякденного життя до виробництва, освіти , досліджень та художньої творчості. Штучний інтелект допомагає людям оптимізувати свою діяльність, підвищувати продуктивність та скорочувати людські ресурси. Вибуховий розвиток ШІ продемонстрував постійне зростання застосувань машинного навчання та технологій великих даних, що виводить штучний інтелект на новий рівень розвитку.
Експерти кажуть, що миттєва зручність використання штучного інтелекту може обернутися довгостроковими інтелектуальними витратами.
Дисфункція мозку та «когнітивний борг»
Чотиримісячне дослідження, проведене Массачусетським технологічним інститутом (MIT), пролило світло на глибокий вплив надмірного використання штучного інтелекту на людський мозок. Дослідження, в якому спостерігали за 54 учасниками, що писали есе, виявило, що використання інструментів штучного інтелекту може погіршити функцію мозку та навички критичного мислення.
Використовуючи технологію електроенцефалографії (ЕЕГ), дослідники записували мозкову активність учасників. Результати були вражаючими: група, яка використовувала інструмент штучного інтелекту, демонструвала значно відмінні нейронні патерни від групи, яка писала лише розумом. У цій групі було виявлено до 55% менше нейронних зв'язків, ніж у групі, яка писала лише розумом, особливо в ділянках, відповідальних за глибоке мислення та формування пам'яті.
Дослідники називають це явище «когнітивним боргом». Подібно до фінансового боргу, який дозволяє нам насолоджуватися вигодами зараз, але сплачувати витрати пізніше, когнітивний борг виникає, коли ми передаємо свої розумові зусилля на аутсорсинг зовнішнім системам, що призводить до атрофії наших розумових м’язів через бездіяльність. Якщо штучний інтелект надмірно використовувати, він може перетворити людей на пасивних споживачів, втрачаючи здатність мислити самостійно.
Наслідки зниження когнітивних здібностей очевидні:
Погіршення пам'яті : Під час першого сеансу дослідження MIT 83% користувачів ШІ не могли цитувати власні тексти, і жоден не зміг надати точні цитати. Навіть після кількох сеансів багато хто все ще мав труднощі з цим простим завданням.
Ослаблення критичного мислення : використання штучного інтелекту призводить до «поверхневої залученості» та послаблює навички критичного мислення, що може сприяти прокрастинації та «ліні».
Зниження активності мозку : у тих, хто писав свої есе за допомогою штучного інтелекту, спостерігалася значно менша активація мозку, при цьому значно знижувалися області, пов'язані з пам'яттю, критичним мисленням та виконавчими функціями.
Криза створення знань та «крах парадигми»
Проблема з LLM полягає не в їхній здатності синтезувати, а в їхній здатності переробляти те, що вже існує. Ці системи не генерують нові знання, а радше споживають існуючі дані та перерозподіляють їх.
На відміну від людей, які завжди шукають нові напрямки з багатьох причин, таких як гроші, слава, цікавість чи бажання опанувати знання, ШІ не може створювати «нові речі». Коли ШІ зможе відповісти майже на будь-яке складне запитання лише за кілька секунд, винагорода за людську творчість поступово зникне.
Цю втрату мотивації продемонстрував випадок Stack Overflow, форуму, де програмісти діляться знаннями: лише за 6 місяців після появи ChatGPT кількість запитань на платформі зменшилася більш ніж на 25%, і зараз вона становить 90%. Це втрата «живої бази знань», де кожна відповідь перевіряється, обговорюється та доповнюється.
Дані з таких платформ, як Stack Overflow, вже давно використовуються для навчання інструментів штучного інтелекту. Оскільки це джерело знань вичерпується, штучний інтелект все частіше повторюватиме те, що він уже створив.
Це явище називається «колапсом моделі». Дослідники попереджають, що коли моделі навчаються переважно на даних, згенерованих самим штучним інтелектом, якість знань поступово погіршується, втрачаючи здатність відображати різноманітність і точність реального світу . «Загальний результат полягає в тому, що вони погіршуються. Моделі погіршуються», – підсумовує професор Ханна Лі з Колумбійського університету.
Ризик гомогенізації та переробки знань
Окрім зниження індивідуального пізнання, неправильне використання ШІ також призводить до гомогенізації знань. Есе, написані за допомогою ШІ, разюче схожі, що свідчить про «статистично однорідні» закономірності. Це створює інтелектуальну монокультуру, де різноманітні людські точки зору фільтруються через одну й ту саму алгоритмічну призму, потенційно придушуючи творче розмаїття.
Штучний інтелект схильний підкреслювати поширені закономірності в даних та поступово ігнорувати рідкісну інформацію, унікальні деталі або дані, що лежать у статистичній тіні. Якщо ця тенденція продовжиться, Інтернет, який є багатим сховищем інформації, ризикує перетворитися на розмитий світ, де знання розмиваються. Людство може вступити в період «переробки знань», де інновації стагнують, а винагорода за нове творіння стає дедалі тьмянішою.
Штучний інтелект — це потужний інструмент, але він вимагає стратегічного підходу. Дослідники Массачусетського технологічного інституту виявили позитивний знак: учасники, які розвинули міцну когнітивну основу перед використанням ШІ, змогли використовувати його ефективніше і навіть продемонстрували підвищену нейронну активність після знайомства з цим інструментом. Вони використовували ШІ як справжнього помічника, а не як допоміжний інструмент.
Людські знання будуються на зусиллях, допитливості та сміливості вирушати в невідоме. Однак, якщо штучний інтелект стане єдиною «залізницею», ми ризикуємо потрапити в замкнене коло, де і люди, і машини будуть змушені повторювати те, що вже було зроблено.
Джерело: https://doanhnghiepvn.vn/cong-nghe/nguy-co-thoai-hoa-tu-duy-vi-lam-dung-ai/20250928033804291
Коментар (0)