Varias universidades del Reino Unido se enfrentan a una nueva ola de fraude académico: el uso de herramientas de inteligencia artificial como ChatGPT para realizar tareas y exámenes. Según las estadísticas, se han verificado casi 7.000 casos de infracción en el curso académico 2023-2024, más del triple que el año anterior.
Cabe destacar que los expertos en educación afirman que estas cifras son solo la punta del iceberg. Mientras tanto, el plagio (una forma de fraude académico anteriormente común) está en franco descenso.
La IA cambia la naturaleza de las trampas escolares
Antes de que las herramientas de IA se generalizaran, el plagio representaba dos tercios de las faltas de conducta en las universidades del Reino Unido. Pero a medida que ChatGPT y las plataformas de asistencia para la escritura se han vuelto cada vez más sofisticadas y accesibles, la naturaleza de las trampas académicas ha cambiado.
La IA no solo ayuda a los estudiantes a “escribir” ensayos, sino que también sugiere estructuras, referencias e incluso frases más “naturales” para evitar los sistemas de detección de trampas.
Según las estadísticas de mayo de 2024, la tasa de infracciones académicas relacionadas con la IA aumentó a 7,5 por cada 1.000 estudiantes, mientras que el plagio tradicional disminuyó a tan solo aproximadamente 8,5 por cada 1.000. Este cambio dificulta que las universidades detecten y gestionen las infracciones.
Una encuesta interna del Instituto de Política de Educación Superior del Reino Unido reveló que hasta el 88 % de los estudiantes admitieron usar IA para estudiar y completar sus tareas. En una prueba en la Universidad de Reading, los ensayos generados con IA lograron aprobar el sistema de exámenes con una tasa de aprobación de hasta el 94 %.
El Dr. Peter Scarfe, profesor de psicología en la Universidad de Reading, advirtió que detectar contenido generado por IA es casi imposible si los usuarios saben cómo editarlo.
“A diferencia del plagio, donde se puede comparar texto copiado, las herramientas de IA crean contenido nuevo que es difícil de verificar. A menos que el estudiante lo admita, es muy difícil condenarlo”, afirmó Peter Scarfe .
Muchos estudiantes incluso consideran el uso de la IA como parte integral de sus estudios. Un estudiante de administración de empresas admitió que suele usar ChatGPT para generar ideas y buscar referencias, y que «todos lo usan en cierta medida».
«La IA no es mala si se usa correctamente», afirmó el académico Thomas Lancaster, del Imperial College de Londres. «Pero, claramente, muchos estudiantes están cruzando esta línea».
¿Hacia dónde va la educación superior?
A pesar del rápido aumento de las violaciones, más del 27% de las universidades del Reino Unido todavía no clasifican el uso indebido de la IA como una categoría separada de mala conducta, lo que dificulta registrar, monitorear y responder a las violaciones.
Mientras tanto, en plataformas como TikTok, una serie de videos que muestran a estudiantes cómo burlar las reglas se están volviendo virales: desde usar software para reinterpretar contenido generado por IA hasta consejos para eludir los filtros que detectan contenido artificial. Estas herramientas ayudan a humanizar las publicaciones, haciéndolas parecer escritas por humanos.
No solo los estudiantes, sino también las empresas tecnológicas ven el potencial de este grupo de usuarios. Google ofrece paquetes gratuitos de actualización de la herramienta Gemini a estudiantes durante 15 meses, mientras que OpenAI ofrece precios preferenciales para estudiantes en EE. UU. y Canadá.
El secretario de Ciencia y Tecnología del Reino Unido, Peter Kyle, afirmó recientemente que la IA debería utilizarse para apoyar a los estudiantes, especialmente a aquellos con dificultades de aprendizaje. Sin embargo, también destacó que la integración de la IA en la enseñanza, el aprendizaje y la evaluación debe considerarse cuidadosamente para evitar abusos.
Fuente: https://baovanhoa.vn/cong-nghe/bao-dong-tinh-trang-gian-lan-thi-cu-bang-ai-tai-anh-143326.html
Kommentar (0)