ChatGPT подали до суду
Нещодавно двоє американських авторів подали до суду на OpenAI у федеральному суді Сан-Франциско, стверджуючи, що компанія використовувала їхні роботи для «навчання» популярної системи штучного інтелекту ChatGPT.
Письменники з Массачусетсу Пол Трембле та Мона Авад стверджують, що ChatGPT без дозволу видобув дані, скопійовані з тисяч книг, порушуючи авторські права авторів. У їхньому позові стверджується, що ChatGPT створив «дуже точні резюме» їхніх творів без дозволу авторів, що є порушенням авторських прав.
Газета «Ґардіан» цитує Андреса Гуадамуза, який вивчає право інтелектуальної власності в Університеті Сассекса, який сказав, що це перший позов ChatGPT, пов’язаний із правами інтелектуальної власності. Відповідно, пан Гуадамус зазначив, що цей позов виявить нечіткі «правові межі» в процесі використання інноваційних програм штучного інтелекту сьогодні.
OpenAI подали до суду за порушення авторських прав під час навчання зі штучним інтелектом.
У сфері журналістики виникла низка питань як щодо можливостей і викликів, так і щодо впливу штучного інтелекту на журналістику загалом та на посади журналістів.
ChatGPT може генерувати дуже складний текст з простих команд користувача, створюючи будь-що: від есе до заявок на роботу, від віршів до вигаданих історій. ChatGPT — це велика мовна модель, навчена шляхом завантаження мільярдів слів з повсякденного життя в систему з Інтернету. Звідти вона виводить речення та слова з певних послідовностей.
Однак, точність відповідей була поставлена під сумнів. Академіки в Австралії виявили приклади, як система підробляла посилання з веб-сайтів, а потім цитувала фальшиві цитати. Використання штучного інтелекту в журналістиці також викликало суперечки.
Вебсайт новин про технології CNET використовує штучний інтелект для створення статей, які потім перевіряються редакторами-людьми на наявність помилок перед публікацією. Сайт визнав, що програма має обмеження після того, як на сайті новин про технології Futurism було опубліковано статтю, в якій було виявлено, що понад половину статей, створених інструментами штучного інтелекту, довелося редагувати на наявність помилок. Одного разу CNET був змушений виправити статтю, яка містила забагато простих помилок.
Але потенціал штучного інтелекту для створення дезінформації — не єдина проблема. Існує також низка правових та етичних питань, які слід враховувати, включаючи права інтелектуальної власності (ІВ), модерацію контенту та потенційне порушення поточних фінансових моделей редакцій.
Кому належить інтелектуальна власність та права на публікацію контенту?
За словами пана Ле Куок Міня – члена Центрального комітету партії, головного редактора газети «Нян Дан», заступника керівника Центрального відділу пропаганди, голови Асоціації журналістів В'єтнаму , якщо редакції почнуть інтегрувати штучний інтелект для створення контенту, виникає важливе питання: кому належить інтелектуальна власність та права на публікацію контенту? Чи керує платформою штучного інтелекту інформаційне агентство, чи це сама платформа штучного інтелекту?
Ле Куок Мінь зазначив, що, на відміну від США, законодавство Великої Британії дозволяє захист авторських прав на твори, створені комп’ютером, хоча лише окремі особи чи організації мають право «володіти» інтелектуальною власністю, а не штучним інтелектом. Зокрема, це означає, що якщо система штучного інтелекту зробила мінімальний внесок, окрім основних команд користувача, а автоматизований процес прийняття рішень керував творчим процесом, то творця платформи можна вважати «автором» і власником інтелектуального продукту.
Головний редактор Гідеон Лічфілд заявив, що вони не публікуватимуть контент, написаний або відредагований штучним інтелектом, а також не використовуватимуть зображення чи відео, згенеровані штучним інтелектом.
Якщо потрібно багато вводу даних шляхом завантаження документів у систему, а штучний інтелект є лише допоміжним інструментом, тоді інтелектуальна власність на результат може належати користувачеві. Фактично, якщо журналісти використовують штучний інтелект, їм потрібно ретельно перевірити умови обслуговування платформ, щоб ретельно оцінити правила інтелектуальної власності. Деякі платформи «надають» права інтелектуальної власності користувачам, тоді як інші можуть зберігати це право та надавати його за «ліцензією» (можливо, з правилами, що обмежують використання редакцій).
«Незалежно від того, кому належить інтелектуальна власність, редакції повинні бути готові брати на себе відповідальність за будь-який контент, створений штучним інтелектом, який вони публікують, включаючи можливість того, що контент буде визнано наклепницьким або таким, що вводить в оману», – сказав Мінь.
Головний редактор газети Nhan Dan додав, що досі багато інструментів штучного інтелекту не «публікують» відповіді нікому, окрім самих користувачів, і кожен, хто використовує ці технології, несе відповідальність за контент, який вони публікують. Найбільшим ризиком для редакцій, які публікують роботи, створені штучним інтелектом, є випадкове порушення прав інтелектуальної власності третіх сторін. Журналісти не можуть знати, які зображення чи текст використовуються для навчання штучного інтелекту, а які залучаються для створення контенту на вимогу.
« Новини повинні прийняти той факт, що на перший погляд оригінальний контент, створений штучним інтелектом, може бути значною мірою під впливом сторонніх джерел або безпосередньо скопійований з них без дозволу», – наголосив пан Ле Куок Мінь.
Пан Мінь також зазначив, що умови надання послуг платформ штучного інтелекту не гарантують, що результати не порушуватимуть авторські права, і таким чином редакції не матимуть законних підстав, якщо автор подасть на них до суду. Наприклад, компанія зі зберігання фотографій Getty Images порушила справу проти Stability AI – материнської компанії, яка розробляє інструмент для створення зображень Stable Diffusion – за «незаконне копіювання та обробку мільйонів фотографій, захищених авторським правом, що належать Getty Images або представлені нею».
«Навіть якщо Stability AI уникне позову про авторські права, все одно буде встановлено, що він порушив умови надання послуг Getty Images, які забороняють «будь-який аналіз даних, робототехніку чи подібні методи збору даних». ЗМІ, які, як виявиться, використовують штучний інтелект для втручання в контент Getty Images без дозволу, також можуть бути подані до суду», – сказав Мінь.
Позитивним зрушенням є те, що сайт новин про технології Wired нещодавно став першим засобом масової інформації, який опублікував офіційні правила щодо штучного інтелекту, в яких окреслено, як вони планують використовувати цю технологію.
Правила, опубліковані головним редактором Гідеоном Лічфілдом на початку березня, містять низку зобов’язань щодо того, чого редакція не робитиме, наприклад, не публікуватиме контент, написаний або відредагований штучним інтелектом, не використовуватиме зображення чи відео, створені штучним інтелектом, а використовуватиме штучний інтелект лише для отримання ідей для статей, або для пропозиції привабливих заголовків, або контенту, розміщеного в соціальних мережах для підвищення ефективності. Це можна вважати позитивним та необхідним заходом у контексті того, що штучний інтелект викликає багато суперечок навколо правових та етичних питань у сучасній журналістській діяльності.
Хоа Зіанг
Джерело






Коментар (0)