Os dois modelos ChatGPT recém-lançados apresentam uma frequência maior de informações falsas do que a geração anterior. Foto: Fireflies . |
Apenas dois dias após o anúncio do GPT-4.1, a OpenAI lançou oficialmente não um, mas dois novos modelos, chamados o3 e o4-mini. Ambos os modelos demonstram capacidades de raciocínio superiores com muitas melhorias significativas.
No entanto, de acordo com o TechCrunch , esses dois novos modelos ainda sofrem de "alucinações" ou autoinventividade. Na verdade, eles exibem mais alucinações do que alguns dos modelos mais antigos da OpenAI.
Segundo a IBM, as alucinações são fenômenos em que grandes modelos de linguagem (LLMs, na sigla em inglês) – geralmente chatbots ou ferramentas de visão computacional – recebem padrões de dados que não existem ou são irreconhecíveis para os humanos, produzindo assim resultados sem sentido ou imprecisos.
Em outras palavras, os usuários geralmente esperam que a IA produza resultados precisos com base em dados de treinamento. No entanto, em alguns casos, os resultados da IA não se baseiam em dados precisos, criando uma resposta "falsa".
Em seu relatório mais recente, a OpenAI descobriu que o modelo o3 era "ilusório" ao responder 33% das perguntas no PersonQA, o padrão interno da empresa para medir a precisão do conhecimento que um modelo tem dos seres humanos.
Para efeito de comparação, este valor representa o dobro da taxa de "ilusão" dos modelos de raciocínio anteriores da OpenAI, o1 e o3-mini, que foram de 16% e 14,8%, respectivamente. Enquanto isso, o modelo o4-mini teve um desempenho ainda pior no PersonQA, apresentando "ilusão" em 48% da duração do teste.
Mais preocupante ainda, o "pai do ChatGPT" não sabe ao certo por que isso está acontecendo. Especificamente, em seu relatório técnico sobre o o3 e o o4-mini, a OpenAI afirma que "são necessárias mais pesquisas para entender por que as 'alucinações' pioram" ao escalar modelos de raciocínio.
Os modelos O3 e O4-mini apresentam melhor desempenho em algumas áreas, incluindo programação e tarefas matemáticas. No entanto, como precisam "fazer mais afirmações do que afirmações gerais", ambos os modelos resultaram em "afirmações mais precisas, mas também mais imprecisas".
Fonte: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html







Comentário (0)