В целях защиты интеллектуальной собственности компания OpenAI ввела требование о проверке личности государственными органами для разработчиков, желающих получить доступ к ее самым передовым моделям искусственного интеллекта (ИИ).
Компания OpenAI не ответила на запрос о комментарии по поводу вышеизложенной информации.
Однако в своем заявлении «создатель» приложения ChatGPT объяснил, что причиной введения нового процесса верификации стало то, что некоторые разработчики намеренно использовали программные интерфейсы приложений (API) OpenAI, тем самым нарушая политику компании в отношении использования.
Хотя компания официально заявила, что причиной стало предотвращение неправомерного использования, похоже, что это вызвано более глубокой обеспокоенностью: конкуренты собирают результаты работы моделей OpenAI для обучения собственных систем искусственного интеллекта.
Это подтверждается новым исследованием компании Copyleaks, специализирующейся на обнаружении контента с помощью искусственного интеллекта.
Используя систему распознавания «отпечатков пальцев», аналогичную той, что используется в крупных моделях ИИ, Copyleaks обнаружил, что примерно 74% результатов работы конкурирующей модели DeepSeek-R1 (Китай) можно классифицировать как написанные OpenAI. Эта цифра указывает не только на дублирование, но и на имитацию.
Copyleaks также изучила другие модели ИИ, такие как phi-4 от Microsoft и Grok-1 от xAI. Результаты показали практически полное отсутствие сходства с OpenAI, с показателями «несоответствия» в 99,3% и 100% соответственно. Модель Mixtral от Mistral, однако, имела некоторое сходство.
Это исследование подчеркивает один факт: даже когда моделям предлагается писать с разным тоном или в разных форматах, они все равно оставляют заметные стилистические следы — подобно лингвистическим отпечаткам пальцев.
Эти "отпечатки пальцев" сохраняются при выполнении различных задач, при обсуждении разных тем и при выполнении различных заданий, и их происхождение можно отследить с определенной степенью точности.
Между тем, некоторые критики указывают на то, что сама компания OpenAI создала свои первоначальные модели, собирая данные из интернета, включая контент от новостных издателей, авторов и создателей контента — зачастую без их согласия.
Генеральный директор Copyleaks Алон Ямин указал на две проблемы: обучение моделей, использующих защищенный авторским правом контент, без разрешения и использование результатов работы собственных систем искусственного интеллекта для обучения конкурирующих моделей — по сути, обратное проектирование продукта конкурента.
Ямин утверждает, что, хотя оба метода вызывают этические споры, обучение на основе результатов работы OpenAI представляет собой конкурентный риск, поскольку по сути оно использует труднодостижимые инновации без согласия или компенсации со стороны первоначального разработчика.
По мере того как компании, занимающиеся разработкой искусственного интеллекта, соревнуются в создании все более мощных моделей, дебаты о том, кому что принадлежит и кто может обучать модели на каких данных, становятся все более ожесточенными.
Такие инструменты, как система цифровой идентификации Copyleaks, предлагают потенциальный метод отслеживания и проверки авторских прав на узоры.
Источник: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp






Комментарий (0)