Programas de inteligência artificial alcançaram muitos sucessos nos últimos anos - Foto: REUTERS
Não podemos observar todo o processo, desde os dados de entrada até os resultados de saída de grandes modelos de linguagem (LLMs).
Para facilitar a compreensão, os cientistas usaram termos comuns como "raciocínio" para descrever o funcionamento desses programas. Eles também afirmam que os programas podem "pensar", "raciocinar" e "entender" da mesma forma que os humanos.
Exagerando as capacidades da IA
Nos últimos dois anos, muitos executivos de IA usaram hipérboles para exagerar conquistas técnicas simples, de acordo com a ZDNET em 6 de setembro.
Em setembro de 2024, a OpenAI anunciou que o modelo de raciocínio o1 "usa uma cadeia de inferência ao resolver problemas, semelhante à maneira como os humanos pensam por muito tempo quando se deparam com questões difíceis".
No entanto, os cientistas da IA se opõem. Eles acreditam que a IA não possui inteligência humana.
Um estudo no banco de dados arXiv realizado por um grupo de autores da Universidade Estadual do Arizona (EUA) verificou a capacidade de raciocínio da IA com um experimento simples.
Os resultados mostraram que "a inferência por cadeia de pensamento é uma ilusão frágil", não um mecanismo lógico real, mas apenas uma forma sofisticada de correspondência de padrões.
O termo “cadeia de pensamento” (CoT) permite que a IA não apenas apresente uma resposta final, mas também apresente cada etapa do raciocínio lógico, como nos modelos GPT-o1 ou DeepSeek V1.
Ilustração do modelo de linguagem GPT-2 da OpenAI - Foto: ECHOCRAFTAI
Veja o que a IA realmente faz
Análises em larga escala mostram que o LLM tende a confiar na semântica e em pistas superficiais em vez de processos de raciocínio lógico, dizem os pesquisadores.
"O LLM constrói cadeias lógicas superficiais com base em associações de entrada aprendidas, muitas vezes falhando em tarefas que se desviam dos métodos de raciocínio convencionais ou padrões familiares", explica a equipe.
Para testar a hipótese de que o LLM estava apenas correspondendo a padrões e não fazendo inferências, a equipe treinou o GPT-2, um modelo de código aberto lançado pela OpenAI em 2019.
O modelo foi inicialmente treinado em tarefas muito simples com as 26 letras do alfabeto inglês, como inverter algumas letras, por exemplo, transformando "APPLE" em "EAPPL". Depois, a equipe mudou a tarefa e pediu ao GPT-2 para executá-la.
Os resultados mostram que, para tarefas não incluídas nos dados de treinamento, o GPT-2 não consegue resolvê-las com precisão usando CoT.
Em vez disso, o modelo tenta aplicar as tarefas aprendidas mais semelhantes. Portanto, suas "inferências" podem parecer razoáveis, mas os resultados costumam estar errados.
O grupo concluiu que não se deve confiar demais ou cegamente nas respostas do LLM, pois elas podem produzir "bobagens que parecem muito convincentes".
Eles também enfatizaram a necessidade de entender a verdadeira natureza da IA, evitar exageros e parar de promover que a IA tem a capacidade de raciocinar como os humanos.
Fonte: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
Comentário (0)