Em uma medida vista como forma de proteger a propriedade intelectual da empresa, a OpenAI acaba de implementar um requisito de verificação de identidade governamental para desenvolvedores que buscam acesso aos seus modelos de Inteligência Artificial (IA) mais avançados.
A OpenAI não respondeu ao pedido de comentários sobre as informações acima.
No entanto, no anúncio, o "criador" do aplicativo ChatGPT explicou que o motivo para a introdução do novo processo de verificação foi o uso intencional, por alguns desenvolvedores, das interfaces de programação de aplicativos (APIs) da OpenAI, violando assim a política de uso da empresa.
Embora a empresa tenha declarado oficialmente que o motivo era evitar o uso indevido, a ação parece decorrer de uma preocupação mais profunda: a de que os resultados dos modelos da OpenAI estejam sendo coletados por concorrentes para treinar seus próprios sistemas de IA.
Isso é demonstrado por um novo estudo da Copyleaks, uma empresa especializada em detecção de conteúdo por IA.
Utilizando um sistema de reconhecimento de "impressões digitais" semelhante ao de grandes modelos de IA, o Copyleaks descobriu que aproximadamente 74% da saída do modelo concorrente DeepSeek-R1 (China) poderia ser classificada como escrita pela OpenAI. Esse número indica não apenas duplicação, mas também imitação.
A Copyleaks também examinou outros modelos de IA, como o phi-4 da Microsoft e o Grok-1 da xAI. Os resultados mostraram quase nenhuma semelhança com o modelo da OpenAI, com taxas de "discordância" de 99,3% e 100%, respectivamente. O modelo Mixtral da Mistral apresentou algumas semelhanças.
Este estudo destaca um fato: mesmo quando os modelos são solicitados a escrever com diferentes tons ou formatos, eles ainda deixam para trás assinaturas estilísticas detectáveis — semelhantes a impressões digitais linguísticas.
Essas impressões digitais persistem em diferentes tarefas, tópicos e instruções, e podem ser rastreadas até sua origem com um certo grau de precisão.
Entretanto, alguns críticos apontam que a própria OpenAI construiu seus modelos iniciais coletando dados da web, incluindo conteúdo de editores de notícias, autores e criadores — muitas vezes sem o consentimento deles.
O CEO da Copyleaks, Alon Yamin, apontou dois problemas: treinar modelos humanos em conteúdo protegido por direitos autorais sem permissão e usar a saída de sistemas de IA proprietários para treinar modelos concorrentes – essencialmente, fazer engenharia reversa do produto de um concorrente.
Yamin argumenta que, embora ambos os métodos sejam eticamente controversos, o treinamento com base nos resultados da OpenAI representa um risco competitivo, pois explora inovações difíceis de alcançar sem o consentimento ou compensação do desenvolvedor original.
À medida que as empresas de IA competem para construir modelos cada vez mais poderosos, o debate sobre a propriedade de determinados dados e quem pode utilizá-los para treinamento está se intensificando.
Ferramentas como o sistema de impressão digital da Copyleaks oferecem um método potencial para rastrear e verificar direitos autorais em padrões.
Fonte: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp






Comentário (0)