В останні місяці експерти та дослідники з безпеки дітей попереджали, що креативний штучний інтелект може посилити онлайн-насильство.
Генеральний директор Meta Марк Цукерберг виступає на слуханнях Юридичного комітету Сенату США 31 січня 2024 року перед натовпом учасників, які тримали зображення, створені штучним інтелектом. Фото: Reuters
NCMEC ще не оприлюднила загальну кількість повідомлень про контент із жорстоким поводженням з дітьми з усіх джерел, отриманих у 2023 році. Але у 2022 році було отримано повідомлення про близько 88,3 мільйона файлів щодо цієї проблеми.
«Ми отримуємо звіти від самих інноваційних компаній у сфері штучного інтелекту, (онлайн) платформ та громадськості», – сказав Джон Шехан, віцепрезидент NCMEC.
Генеральні директори Meta, X, TikTok, Snap та Discord дали свідчення на слуханнях у Сенаті США щодо безпеки дітей на онлайн-платформах у середу (31 січня). Законодавці США розпитали компанії соціальних мереж про їхні зусилля щодо захисту дітей від «онлайн-хижаків».
Дослідники Стенфордської інтернет-обсерваторії у звіті, опублікованому в червні минулого року, повідомили, що зловмисники можуть використовувати генеративний штучний інтелект для неодноразового завдання шкоди реальним дітям шляхом створення їх підроблених зображень.
Феллон Макналті, директор CyberTipline NCMEC, яка приймає повідомлення про онлайн-експлуатацію дітей, сказав, що контент, створений штучним інтелектом, стає «все більш фотореалістичним», що ускладнює визначення того, чи є жертвами реальні люди.
Макналті сказав, що OpenAI, компанія, яка створила ChatGPT, налаштувала процес подання звітів до NCMEC, і організація веде переговори з іншими компаніями, що займаються штучним інтелектом.
Хоанг Хай (за даними Reuters, FT)
Джерело






Коментар (0)