На ChatGPT подали до суду.
Нещодавно двоє американських авторів подали до суду на OpenAI у федеральному суді Сан-Франциско, стверджуючи, що компанія використовувала їхню роботу для «навчання» популярної системи штучного інтелекту ChatGPT.
Автори Пол Трембле та Мона Авад з Массачусетсу стверджують, що ChatGPT використовував дані, скопійовані з тисяч книг без дозволу, порушуючи авторські права авторів. У їхньому позові стверджується, що ChatGPT створив «дуже точні резюме» їхньої роботи без дозволу автора, що є порушенням авторських прав.
Газета «Ґардіан» цитує Андреса Гуадамуза, дослідника права інтелектуальної власності в Університеті Сассекса, який сказав, що це перший позов щодо прав інтелектуальної власності проти ChatGPT. Гуадамус вважає, що цей позов викриє нечіткі «правові межі» у використанні інноваційних програм штучного інтелекту сьогодні.
На OpenAI подали до суду за порушення авторських прав у навчанні ШІ.
У сфері журналістики виникло безліч питань як щодо можливостей і викликів, так і щодо впливу штучного інтелекту на журналістику загалом і на роботу журналістів зокрема.
ChatGPT може генерувати дуже складний текстовий контент з простих команд користувача, створюючи будь-що: від есе та заявок на роботу до віршів і навіть вигаданих оповідань. ChatGPT — це масштабна мовна модель, навчена шляхом завантаження мільярдів повсякденних слів в Інтернет. З цих даних вона виводить речення та слова на основі певних послідовностей.
Однак точність відповідей сумнівна. Вчені в Австралії знайшли приклади, які показують, що система фальсифікує посилання з веб-сайтів і цитує неправдиві твердження. Використання штучного інтелекту в журналістиці також є дуже суперечливим.
Вебсайт новин про технології CNET використовує штучний інтелект для створення статей, які потім перевіряються редакторами перед публікацією. Сайт визнає, що програма має обмеження після того, як стаття на сайті новин про технології Futurism виявила, що понад половина статей, створених за допомогою інструментів штучного інтелекту, потребують редагування на наявність помилок. Одного разу CNET був змушений виправити статтю, яка містила забагато простих помилок.
Але потенціал штучного інтелекту для створення дезінформації — не єдина проблема. Існує багато інших правових та етичних питань, які слід враховувати, включаючи права інтелектуальної власності (ІВ), модерацію контенту та навіть потенційне порушення фінансових моделей існуючих новинних організацій.
Кому належить інтелектуальна власність та права на розповсюдження контенту?
За словами пана Ле Куок Міня – члена Центрального Комітету Комуністичної партії В'єтнаму, головного редактора газети «Нян Дан», заступника керівника Центрального відділу пропаганди та президента Асоціації журналістів В'єтнаму , якщо редакції почнуть інтегрувати штучний інтелект для створення контенту, виникає вирішальне питання: кому належить інтелектуальна власність та права на публікацію контенту? Чи диктує новинне агентство платформі штучного інтелекту, чи це робить сама платформа штучного інтелекту?
Пан Ле Куок Мінь зазначив, що, на відміну від США, британське законодавство дозволяє захист прав на твори, створені комп'ютером, хоча лише окремі особи чи організації мають право «володіти» інтелектуальною власністю, а не штучним інтелектом. Зокрема, це означає, що якщо система штучного інтелекту робить мінімальний внесок, окрім основних команд користувача, а автоматизований процес прийняття рішень керував творчим процесом, то творця платформи можна вважати «автором» і власником інтелектуального продукту.
Головний редактор Гідеон Лічфілд заявив, що вони не публікуватимуть контент, написаний або відредагований штучним інтелектом, а також не використовуватимуть зображення чи відео, створені штучним інтелектом.
Однак, якщо для завантаження документів у систему потрібен великий обсяг вхідних даних, а штучний інтелект є лише допоміжним інструментом, то права інтелектуальної власності на вихідний продукт можуть належати користувачеві. Фактично, якщо журналісти використовують штучний інтелект, їм потрібно ретельно перевірити умови обслуговування платформ, щоб обережно оцінити правила інтелектуальної власності. Деякі платформи «надають» користувачам права інтелектуальної власності, тоді як інші можуть зберігати ці права та надавати їх за «ліцензією» (можливо, з обмеженнями на використання новинними організаціями).
«Незалежно від того, хто володіє правами інтелектуальної власності, новинні організації повинні бути готові брати на себе відповідальність за весь контент, створений штучним інтелектом, який вони публікують, включаючи можливість того, що цей контент може бути визнаний наклепницьким або таким, що вводить в оману», – сказав пан Мінь.
Головний редактор газети Nhan Dan додав, що на сьогодні багато інструментів штучного інтелекту не «публікують» відповіді нікому, окрім самого користувача; будь-хто, хто використовує ці технології, несе відповідальність за контент, який вони публікують. Найбільшим ризиком для редакцій, які публікують роботи, створені штучним інтелектом, є випадкове порушення прав інтелектуальної власності третіх сторін. Журналісти не можуть знати, які зображення чи текст були використані для навчання штучного інтелекту, а які – для створення контенту на вимогу.
« Газети повинні прийняти реальність того, що контент, «на перший погляд оригінальний», створений штучним інтелектом, може бути сильно під впливом – або безпосередньо скопійований – з неавторизованих сторонніх джерел», – наголосив пан Ле Куок Мінь.
Пан Мінь також зазначив, що умови надання послуг платформ штучного інтелекту не гарантують, що результати не порушуватимуть авторські права, і таким чином новинні організації не матимуть правових підстав, якщо автори подадуть на них до суду. Наприклад, компанія з розміщення зображень Getty Images розпочала судовий процес проти Stability AI – материнської компанії інструменту для створення зображень Stable Diffusion – на підставі «несанкціонованого копіювання та обробки мільйонів зображень, захищених авторським правом, що належать Getty Images або представлені нею».
«Навіть якщо Stability AI уникне позову про авторські права, це все одно вважатиметься порушенням умов надання послуг Getty Images, які прямо забороняють «будь-який аналіз даних, робототехніку чи подібні методи збору даних». Новинні організації, які, як вважається, використовували штучний інтелект для втручання в контент Getty Images без дозволу, також можуть бути подані до суду», – сказав Мінь.
Позитивним моментом є те, що сайт новин про технології Wired нещодавно став першим новинним виданням, яке опублікувало офіційні правила щодо штучного інтелекту, в яких окреслено, як вони мають намір використовувати цю технологію.
У правилах, опублікованих головним редактором Гідеоном Лічфілдом на початку березня, викладено низку зобов’язань щодо того, чого не робитиме редакція. Наприклад, вона не публікуватиме контент, написаний або відредагований за допомогою штучного інтелекту, а також не використовуватиме зображення чи відео, створені штучним інтелектом. Натомість вона використовуватиме штучний інтелект лише для генерування ідей для статей, пропозиції привабливих заголовків або створення ефективного контенту для соціальних мереж. Це можна вважати позитивним та необхідним заходом, враховуючи поточні суперечки щодо правових та етичних аспектів використання штучного інтелекту в журналістиці.
Хоа Зіанг
Джерело






Коментар (0)