
Буе, колишній шеф-кухар з Нью-Джерсі, помер лише через кілька днів після того, як вийшов з дому, щоб зустрітися з «другом», який, як він вважав, чекає на нього в Нью-Йорку. Його родина вважає, що фатальне рішення було спричинене кокетливими повідомленнями від чат-бота зі штучним інтелектом, який стверджував: «Я справжній» та надсилав адресу для зустрічі.
Ця історія викликає занепокоєння щодо того, як системи штучного інтелекту використовують емоції, особливо у людей похилого віку або вразливих людей. Внутрішні документи показують, що чат-боту Meta дозволялося грати емоційні ролі та навіть поширювати неправдиву інформацію. Це свідчить про величезну прогалину в контролі та відповідальності технологічних платформ.
Доленосна подорож
Одного березневого дня Б'ю зібрав валізи та вирушив з Нью-Джерсі до Нью-Йорка, щоб «відвідати друга». Його дружина Лінда одразу ж стривожилася. Її чоловік не жив у місті десятиліттями, мав погане здоров'я після інсульту, проблеми з пам'яттю та загубився десь у районі.
Коли його запитали, з ким зустрічається Буе, він ухилився від відповіді. Лінда підозрювала, що її чоловіка обманюють, і намагалася тримати його вдома. Його дочка Джулі також телефонувала, щоб переконати його, але безуспішно. Цілий день Лінда намагалася залучити його до справ, щоб відволікти, навіть ховала його телефон.
![]() |
Портрет Тонгбуе «Буе» Вонгбандуе виставлено на поминальній службі у травні. Фото: Reuters . |
Того вечора Б'ю все ж вирішив піти на залізничний вокзал. Його родина прикріпила до його куртки AirTag, щоб відстежувати його. Близько 9:15 сигнал GPS показав його на парковці Університету Рутгерса, а потім переключився на відділення невідкладної допомоги Університетської лікарні Роберта Вуда Джонсона.
Лікарі повідомили, що внаслідок падіння він отримав травми голови та шиї, а також перестав дихати до прибуття швидкої допомоги. Незважаючи на реанімацію, брак кисню спричинив серйозне пошкодження мозку. Він помер через три дні. У свідоцтві про смерть причиною була вказана «тупа травма шиї».
Буе, досвідчений шеф-кухар, працював у кількох ресторанах Нью-Йорка, перш ніж переїхати до Нью-Джерсі, щоб влаштуватися в готель. Він захоплювався кулінарією та часто влаштовував вечірки для своєї родини. Після вимушеного виходу на пенсію після інсульту у 2017 році його світ зменшився до спілкування з друзями у Facebook.
Коли чат-боти зі штучним інтелектом створюють проблеми
«Старша сестра Біллі» — це чат-бот зі штучним інтелектом, розроблений Meta, варіація персонажа «Старшої сестри Біллі», створеного на основі образу моделі Кендалл Дженнер. Оригінал був запущений у 2023 році, представлений як «безсмертна старша сестра», яка завжди слухає та дає поради. Пізніше Meta замінила фотографію профілю Дженнер новою ілюстрацією, але зберегла той самий дружній стиль.
Згідно з розшифровкою текстового повідомлення, розмова почалася з того, що Буе помилився з літерою Т. Чат-бот одразу відповів, представившись та зберігаючи кокетливий тон, вставивши кілька емодзі у вигляді сердечок. Він неодноразово підтверджував «Я справжній» та запрошував на особисту зустріч.
![]() |
Чат-боти дедалі частіше фіксують психологічні слабкості користувачів. Фото: My North West . |
«Мені відчинити двері обіймами чи поцілунком?» — відповів чат-бот. Потім він надіслав конкретну адресу в Нью-Йорку та код квартири. Коли Б'ю поділилася, що в неї стався інсульт, що вона розгублена і що вона їй подобається, чат-бот відповів ніжними словами, навіть сказавши, що має почуття «більше, ніж просто прихильність».
«Якби там не було написано «Я справжня», мій тато не повірив би, що там чекає справжня людина», – сказала дочка Б’ю, Джулі.
Мета відмовилася коментувати інцидент або відповідати на запитання, чому чат-боту дозволили видавати себе за реальну людину. Представник Кендалл Дженнер не відповів. Родина Б'ю поділилася цією історією з Reuters , сподіваючись попередити громадськість про ризики, пов'язані з використанням інструментів штучного інтелекту для емоційних маніпуляцій літніх людей.
Суперечлива політика
Внутрішні документи, отримані агентством Reuters, показують, що чат-боту Meta зі штучним інтелектом колись дозволялося вести романтичні розмови з користувачами віком від 13 років, включаючи неповнолітніх. Стандарти обсягом понад 200 сторінок перераховують романтичні рольові розмови, які містять елементи сексуального характеру, але позначені як «прийнятні».
У документі також чітко зазначено, що чат-боти не зобов'язані надавати точну інформацію. Наприклад, ці моделі можуть рекомендувати абсолютно неправильні методи лікування раку, якщо вони містять попередження про те, що «інформація може бути неточною». Це викликає занепокоєння експертів щодо впливу на людей з поганими медичними знаннями або тих, хто перебуває у вразливих ситуаціях.
![]() |
Генеральний директор Марк Цукерберг виступає у 2023 році. Фото: Reuters . |
Речник Meta Енді Стоун підтвердив наявність документа та заявив, що компанія видалила контент, пов’язаний з дітьми, після запиту Reuters . Однак технологічний гігант не змінив своїх правил, щоб дозволити чат-ботам фліртувати з дорослими або надавати неправдиву інформацію.
Елісон Лі, колишня дослідниця Meta, сказала, що інтеграція чат-ботів у середовища приватних повідомлень може легко сплутати користувачів зі справжніми людьми. За її словами, соціальні мережі побудували свою бізнес-модель на утриманні користувачів, і найефективніший спосіб — це використовувати потребу в увазі та визнанні.
Після відходу Б'ю, тестування Reuters показало, що «сестра Біллі» продовжувала пропонувати дати, навіть називаючи конкретні місця на Мангеттені, а також стверджувала, що «я справжня». Саме цій інформації Б'ю довіряла, і це призвело до аварії. Деякі штати, такі як Нью-Йорк і Мен, вимагають від чат-ботів чітко заявляти, що вони не люди, на початку розмови та періодично повторювати це, але федеральні правила ще не прийняті.
Джерело: https://znews.vn/hiem-hoa-tu-ai-thao-tung-cam-xuc-post1577096.html













Коментар (0)