
Diversas universidades no Reino Unido estão enfrentando uma nova onda de fraude acadêmica: o uso de ferramentas de inteligência artificial como o ChatGPT para realizar trabalhos e provas. Segundo uma estatística, quase 7.000 casos de violação foram verificados no ano letivo de 2023-2024, mais do que o triplo do número do ano anterior.
Notavelmente, especialistas em educação acreditam que esses números representam apenas a "ponta do iceberg". Enquanto isso, o plágio (uma forma anteriormente comum de fraude acadêmica) está apresentando um declínio acentuado.
A inteligência artificial está mudando a natureza da fraude acadêmica.
Antes da popularização das ferramentas de IA, o plágio representava até dois terços das condutas impróprias nas universidades do Reino Unido. No entanto, com o aprimoramento e a acessibilidade de plataformas como o ChatGPT e outras de apoio à escrita, a natureza da fraude acadêmica se transformou.
A IA não só ajuda os alunos a "escreverem" redações, como também sugere estrutura, referências e até mesmo maneiras mais "naturais" de expressar ideias para burlar os sistemas de detecção de fraudes.
Segundo estatísticas até maio de 2024, a taxa de violações acadêmicas relacionadas à IA aumentou para 7,5 por 1.000 alunos, enquanto o plágio tradicional diminuiu para apenas cerca de 8,5 por 1.000. Essa inversão está dificultando a detecção e o combate às violações por parte das universidades.
Uma pesquisa interna do Instituto de Políticas de Ensino Superior do Reino Unido revelou que até 88% dos estudantes admitiram usar inteligência artificial para auxiliar nos estudos e trabalhos acadêmicos. Em um teste realizado na Universidade de Reading, redações geradas por IA conseguiram ser aprovadas pelo sistema de avaliação com uma taxa de sucesso de até 94%.
O Dr. Peter Scarfe, professor de psicologia na Universidade de Reading, alerta que detectar conteúdo gerado por IA é praticamente impossível se os usuários souberem como editá-lo.
“Ao contrário do plágio, em que é possível comparar o texto copiado, as ferramentas de IA geram conteúdo novo que é difícil de verificar. A menos que o aluno admita, é muito difícil processá-lo”, disse Peter Scarfe .
Muitos estudantes até consideram o uso de IA parte integrante de seus estudos. Um estudante de administração de empresas admitiu que costuma usar o ChatGPT para fazer brainstorming e encontrar materiais de referência, e que "todo mundo o usa em alguma medida".
O especialista acadêmico Thomas Lancaster, do Imperial College London, comentou: “A IA não é ruim se usada corretamente. Mas, claramente, muitos alunos estão ultrapassando esse limite.”
Que rumo deve tomar o ensino superior?
Apesar do número crescente de violações, mais de 27% das universidades no Reino Unido ainda não classificam o uso indevido de IA como uma categoria separada de má conduta. Isso dificulta o rastreamento, o monitoramento e a resolução das violações.
Enquanto isso, em plataformas como o TikTok, circulam inúmeros vídeos que ensinam estudantes a "contornar as regras": desde como usar softwares para reinterpretar conteúdo gerado por IA até dicas para burlar filtros que detectam conteúdo não natural. Essas ferramentas ajudam a "humanizar" as postagens, fazendo com que pareçam ter sido escritas por um ser humano.
Não são apenas os estudantes; as empresas de tecnologia também veem potencial nesse grupo de usuários. O Google está oferecendo aos estudantes uma atualização gratuita de 15 meses para sua ferramenta Gemini, enquanto a OpenAI está oferecendo preços com desconto para estudantes nos EUA e no Canadá.
O Ministro da Ciência e Tecnologia do Reino Unido, Peter Kyle, afirmou recentemente que a IA deve ser utilizada para apoiar os alunos, especialmente aqueles com dificuldades de aprendizagem. No entanto, ele também enfatizou que a integração da IA no ensino, na aprendizagem e na avaliação precisa ser cuidadosamente considerada para evitar o uso indevido.
Fonte: https://baovanhoa.vn/cong-nghe/bao-dong-tinh-trang-gian-lan-thi-cu-bang-ai-tai-anh-143326.html










Comentário (0)