
Os programas de inteligência artificial alcançaram muitos avanços nos últimos anos - Foto: REUTERS
Não podemos observar todo o processo, desde os dados de entrada até os resultados de saída, de grandes modelos de linguagem (LLMs).
Para facilitar a compreensão, os cientistas usaram termos comuns como "raciocínio" para descrever como esses programas funcionam. Eles também afirmam que os programas podem "pensar", "raciocinar" e "compreender" da mesma forma que os humanos.
Exagerar as capacidades da IA.
Nos últimos dois anos, muitos executivos de IA têm usado linguagem exagerada para dar destaque a conquistas técnicas simples, de acordo com o ZDNET, em 6 de setembro.
Em setembro de 2024, a OpenAI anunciou que o modelo de raciocínio o1 "usa uma cadeia de inferência ao resolver problemas, semelhante à forma como os humanos pensam por um longo tempo quando confrontados com questões difíceis".
No entanto, os cientistas da área da IA discordam. Eles argumentam que a IA não possui inteligência semelhante à humana.
Um estudo realizado por um grupo de autores da Universidade Estadual do Arizona (EUA), publicado no banco de dados arXiv, verificou a capacidade de raciocínio da IA por meio de um experimento simples.
Os resultados mostraram que "a inferência por cadeia de pensamento é uma ilusão frágil", não um mecanismo lógico real, mas apenas uma forma sofisticada de reconhecimento de padrões.
O termo "cadeia de pensamento" (CoT, na sigla em inglês) permite que a IA não apenas chegue a uma resposta final, mas também apresente cada etapa do raciocínio lógico, como nos modelos GPT-o1 ou DeepSeek V1.

Ilustração do modelo de linguagem GPT-2 da OpenAI - Foto: ECHOCRAFTAI
Veja o que a IA realmente faz.
A equipe de pesquisa afirmou que análises em larga escala mostraram que o LLM tende a se basear mais na semântica e em pistas superficiais do que em processos de raciocínio lógico.
"O LLM constrói cadeias lógicas superficiais com base em associações de entrada aprendidas, frequentemente falhando em tarefas que se desviam dos métodos de raciocínio convencionais ou de padrões familiares", explica a equipe.
Para testar a hipótese de que o LLM estava apenas identificando padrões e não fazendo inferências de fato, a equipe treinou o GPT-2, um modelo de código aberto lançado pela OpenAI em 2019.
Inicialmente, o modelo foi treinado em tarefas muito simples com as 26 letras do alfabeto inglês, como inverter algumas letras, por exemplo, transformando "APPLE" em "EAPPL". Depois, a equipe mudou a tarefa e pediu ao GPT-2 para realizá-la.
Os resultados mostraram que, para tarefas não incluídas nos dados de treinamento, o GPT-2 não conseguiu resolvê-las com precisão usando o CoT.
Em vez disso, o modelo tenta aplicar as tarefas aprendidas da forma mais fiel possível. Portanto, seu "raciocínio" pode parecer lógico, mas os resultados geralmente estão errados.
O grupo concluiu que não se deve confiar demais ou acreditar cegamente nas respostas do mestrado em Direito, pois elas podem produzir "absurdos que soam muito convincentes".
Eles também enfatizaram a necessidade de compreender a verdadeira natureza da IA, evitar exageros e parar de promover a ideia de que a IA possui habilidades de raciocínio semelhantes às humanas.
Fonte: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Comentário (0)