O Dr. Le Duy Tan, professor da Faculdade de Tecnologia da Informação da Universidade Internacional da Universidade Nacional do Vietnã, na cidade de Ho Chi Minh, e cofundador do AIoT Lab VN, afirmou que o uso de IA por estudantes para auxiliar em seus estudos, trabalhos, relatórios e teses é uma tendência comum em todo o mundo .
De acordo com uma pesquisa global de 2024 do Digital Education Council, aproximadamente 86% dos estudantes relataram usar ferramentas de IA em seus estudos; destes, cerca de 54% as utilizam semanalmente. Uma pesquisa de junho de 2025 da Save My Exams também mostrou que 75% dos estudantes usam IA para fazer a lição de casa, sendo que 24% a utilizam diariamente e 44% semanalmente.

O uso da IA pelos alunos para apoiar sua aprendizagem e pesquisa está se tornando cada vez mais comum.
FOTO: NGOC LONG
Além dos aspectos positivos, é inevitável que alguns alunos façam mau uso das ferramentas de IA.
Usar IA para ocultar IA
Segundo o Dr. Le Duy Tan, alguns alunos utilizam IA para trabalhos, relatórios e teses sem compreenderem totalmente o funcionamento da ferramenta e suas limitações. Isso faz com que percam gradualmente suas habilidades de pensamento crítico, escrita e pesquisa independente.
Em um programa online promovido pelo jornal Thanh Nien , o Dr. Dinh Ngoc Thanh, Diretor Técnico da OpenEdu, afirmou que muitos alunos utilizam ferramentas como o ChatGPT para resolver problemas de lição de casa em vez de estudar de forma independente, o que leva a uma experiência de aprendizado "mais fácil". No entanto, essa é uma abordagem perigosa que contraria os princípios educacionais , já que o objetivo da educação não é apenas concluir tarefas, mas sim cultivar o pensamento crítico e as habilidades de resolução de problemas.
O Sr. Pham Tan Anh Vu, chefe do escritório de representação da Região Sul da Vietnam Artificial Intelligence Solutions Company (VAIS), afirmou que, entre 2022 e 2024, os textos gerados por IA frequentemente apresentam "impressões digitais" facilmente reconhecíveis. O estilo de escrita é uniforme, sem emoção e repete estruturas familiares como "não só... mas também...", com frases de transição formulaicas como "além disso", "ademais" e sempre termina com um forçado "em resumo". O conteúdo é impecavelmente limpo, com ortografia perfeita, e a tendência de listar itens usando marcadores são todos indicadores da influência da IA.
Uma fragilidade ainda mais grave reside no conteúdo gerado pela IA. Trata-se do fenômeno da "alucinação", em que a IA fabrica informações, dados ou até mesmo fontes que não existem. "Muitos artigos gerados por IA são como uma compilação de diferentes trechos de código, resultando em um estilo de escrita inconsistente e parágrafos ilógicos", observou o Sr. Vu.
Até 2025, para superar as ferramentas de detecção de plágio baseadas em IA, os alunos se tornarão cada vez mais sofisticados. Uma nova indústria tecnológica surgiu: ferramentas de personificação de texto baseadas em IA.
Os alunos criaram um processo: usaram o ChatGPT para rascunhar, transferiram para o Quillbot para reformular e, finalmente, usaram ferramentas de "personificação" como o Undetectable AI para apagar todos os vestígios. Alguns alunos até adicionaram pequenos erros intencionalmente para fazer o texto parecer mais "natural".
"Neste momento, detectar se uma redação utiliza IA e compará-la com uma escrita inteiramente por um aluno é provavelmente impossível, porque os humanos têm usado muitos truques sofisticados para enganar tanto as máquinas quanto os professores na hora de corrigir as provas", afirmou o Sr. Vu.
Sob a mesma perspectiva, o Dr. Le Duy Tan argumenta que artigos "excessivamente limpos", sem erros ortográficos, desprovidos de experiência pessoal ou evidências e com um estilo de escrita monótono, são altamente suspeitos.

É muito difícil para os instrutores avaliarem com precisão as verdadeiras habilidades dos alunos quando estes utilizam IA para trabalhos, provas, pesquisas, etc.
Foto: TN criada usando IA
A lacuna entre a "competência virtual" e as habilidades reais.
Segundo especialistas, o uso indevido de IA por estudantes não é apenas trapaça; está minando o próprio fundamento da educação.
O Sr. Pham Tan Anh Vu expressou sua maior preocupação: o risco de a IA diminuir a capacidade de pensamento crítico e independente dos alunos. Isso porque, uma vez que se acostumem a resolver problemas recebendo respostas imediatas da IA, eles gradualmente perderão a paciência para ler e compreender documentos originais ou sintetizar informações por conta própria.
"Como alertou o Professor Associado Dr. Nguyen Chi Thanh, Chefe da Faculdade de Educação da Universidade de Educação da Universidade Nacional do Vietname , em Hanói , sobre o risco de os utilizadores se tornarem 'escravos digitais', um estado de dependência que sufoca as três capacidades humanas mais importantes: a resolução de problemas, a criatividade e a aprendizagem autónoma", afirmou o Sr. Vu.
Mais perigosamente, a IA pode criar uma "ilusão de competência". Uma professora de literatura na cidade de Ho Chi Minh relatou que certa vez descobriu muitos alunos usando a mesma ferramenta de IA para concluir tarefas, mas, quando questionados sobre o conteúdo, não conseguiam explicar o que haviam escrito. Isso demonstra que a crescente discrepância entre a competência percebida e o conhecimento real será uma "bomba-relógio", prestes a explodir quando os alunos se formarem e ingressarem no mercado de trabalho.
"O uso excessivo de IA também torna os métodos tradicionais de avaliação ineficazes. Tarefas de casa, como redações e trabalhos em grupo, que foram elaboradas para medir as habilidades de pesquisa e raciocínio, de repente perdem o sentido, dificultando muito a avaliação precisa das verdadeiras capacidades dos alunos por parte dos professores", enfatizou este professor.
Portanto, o Dr. Le Duy Tan acredita que a solução mais importante é reformular o método de avaliação. As tarefas devem exigir que os alunos comecem com um esboço pessoal, documentando seu processo de trabalho, analisando suas experiências, apresentando como encontraram e verificaram as informações ou incluindo uma sessão direta de perguntas e respostas. Pesquisas mostram que avaliações focadas em análise, avaliação e criatividade, em vez de apenas resumos, ajudam a reduzir a dependência da IA em todo o processo.
"Para avaliar se um aluno está realmente empenhado nos estudos ou utilizando a IA de forma eficaz, os professores devem mudar seus métodos de ensino, apresentando o tema aos alunos por meio de três elementos-chave: conhecimento claro, assimilação firme e compreensão profunda. Só assim poderão desenvolver verdadeiramente as capacidades dos alunos na aplicação de ferramentas de IA", afirmou o Sr. Vu.

As ferramentas de IA ajudam os alunos a criar resenhas de pesquisas, resumir artigos científicos e muito mais.
Foto: Captura de tela
A linha tênue entre assistência e fraude
No contexto da IA se tornar uma ferramenta essencial, a questão de "os alunos devem ter permissão para usar IA?" já não é relevante. O que importa agora é definir os limites do uso da IA no meio acadêmico.
Segundo o Sr. Pham Tan Anh Vu, essa fronteira reside no propósito, no método e na atitude. A IA só é uma ferramenta razoável quando usada para gerar ideias, auxiliar na sumarização de documentos, verificar erros ou explicar terminologia complexa. Os alunos precisam ser "leitores lentos", reavaliar as informações e assumir a responsabilidade final pelo conteúdo. Por outro lado, se os alunos copiarem integralmente todo ou a maior parte do conteúdo gerado pela IA e o apresentarem como se fosse seu, isso constitui fraude acadêmica.
O Sr. Vu também argumentou que a IA deveria ser reconhecida como uma competência essencial para os alunos; em vez de ser suprimida, a IA deveria ser reconhecida e seu uso integrado ao programa de treinamento.
Em relação às soluções, o Dr. Duy Tan sugeriu que universidades e professores desenvolvam e divulguem claramente políticas sobre o uso de IA em cursos, trabalhos e teses. Por exemplo, o trabalho deve indicar claramente: "Os alunos podem/não podem usar ferramentas de IA; se usadas, as ferramentas devem ser claramente especificadas, quais partes são alimentadas por IA e quais partes são alimentadas pelo aluno"; os alunos devem ser treinados no uso responsável, ético e eficaz da IA, não apenas dizendo "não é permitido", mas orientando-os sobre como usar a IA para auxiliar na verificação de resultados, validação de dados, análise e desenvolvimento de ideias de IA.
É necessário um quadro jurídico comum a nível nacional.
Segundo o Sr. Pham Tan Anh Vu, os esforços pioneiros das universidades são muito importantes, mas para criar uma mudança sincronizada, precisamos de um código de conduta e um quadro legal comuns em nível nacional. Não podemos permitir uma situação em que um ato de abuso de IA possa ser considerado fraude e resultar em nota zero em uma universidade, mas ser aceito em outra.
O Vietnã precisa construir uma estrutura legal clara baseada em princípios fundamentais: respeito à lei e à ética; imparcialidade e não discriminação; transparência e responsabilização (quem é o responsável quando a IA comete erros); e uma abordagem centrada no ser humano (os humanos sempre mantêm o controle final).
Fonte: https://thanhnien.vn/sinh-vien-dung-thu-thuat-de-che-dau-ai-185251211185713308.htm






Comentário (0)