В качестве шага, рассматриваемого как защита интеллектуальной собственности компании, OpenAI только что ввела государственное требование проверки личности для разработчиков, желающих получить доступ к ее самым передовым моделям искусственного интеллекта (ИИ).
Компания OpenAI пока не отреагировала на просьбу прокомментировать вышеуказанную информацию.
Однако в своем заявлении «отец» приложения ChatGPT объяснил, что причина нового процесса проверки заключается в том, что некоторые разработчики намеренно использовали интерфейсы прикладного программирования (API) OpenAI, тем самым нарушая политику использования компании.
Хотя официальной целью компании было предотвращение злоупотреблений, этот шаг, по-видимому, вызван более глубокой обеспокоенностью: выходные данные моделей OpenAI собираются конкурентами для обучения своих собственных систем искусственного интеллекта.
Об этом свидетельствует новое исследование компании Copyleaks, занимающейся обнаружением контента с помощью искусственного интеллекта.
Используя систему, которая идентифицирует «отпечатки пальцев» стиля крупных моделей ИИ, Copyleaks обнаружила, что около 74% выходных данных китайской конкурирующей модели DeepSeek-R1 можно классифицировать как написанные OpenAI. На этом рисунке показано не только дублирование, но и имитация.
Copyleaks также изучил другие модели ИИ, такие как phi-4 от Microsoft и Grok-1 от xAI. Результаты показали почти полное отсутствие согласия с OpenAI: показатели «отсутствия консенсуса» составили 99,3% и 100% соответственно. Модель Mixtral от Mistral имеет некоторые сходства.
Это исследование подчеркивает факт: даже когда моделей просят писать в разных тонах или форматах, они все равно оставляют заметные стилистические следы — похожие на лингвистические отпечатки.
Эти «отпечатки пальцев» сохраняются в различных задачах, темах и подсказках, и их источник можно отследить с определенной точностью.
Между тем, некоторые критики отмечают, что сама OpenAI создавала свои первоначальные модели, извлекая данные из Интернета, включая контент издателей, авторов и создателей новостей — часто без их согласия.
Генеральный директор Copyleaks Алон Ямин указывает на две проблемы: обучение на защищенном авторским правом человеческом контенте без разрешения и использование результатов работы фирменных систем искусственного интеллекта для обучения конкурирующих моделей — что сродни обратному проектированию продукта конкурента.
Хотя оба подхода этически спорны, Ямин утверждает, что обучение на основе результатов OpenAI представляет собой конкурентный риск, поскольку по сути оно использует с трудом завоеванные инновации без согласия или компенсации первоначального разработчика.
Поскольку компании, занимающиеся ИИ, стремятся создать все более мощные модели, споры о том, кому что принадлежит и кто может обучаться на каких данных, становятся все более интенсивными.
Такие инструменты, как система цифровой дактилоскопии Copyleaks, предлагают потенциальный метод отслеживания и проверки авторства в моделях./.
Источник: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp
Комментарий (0)