Les enseignants affirment que les devoirs à la maison, tels que les comptes rendus de lecture, les tests à faire à la maison et les dissertations, sont devenus obsolètes et que leur attribution revient à encourager les élèves à tricher.
Casey Cuny, professeur d'anglais depuis 23 ans, a déclaré que « la tricherie a atteint un niveau record, le pire que j'aie jamais connu ». Il a ajouté que pour tout devoir à la maison, les enseignants doivent partir du principe que les élèves utiliseront l'IA pour le réaliser.
Plutôt que de s'inquiéter de l'utilisation de l'IA par les élèves, la question est désormais de savoir comment les établissements scolaires vont s'adapter, car de nombreuses méthodes d'enseignement et d'évaluation traditionnelles sont devenues inefficaces. Le développement rapide de l'IA transforme nos façons d'apprendre et d'enseigner, et crée une confusion quant à la définition de la tricherie.
En réaction, de nombreux enseignants ont modifié leurs méthodes d'enseignement et d'évaluation. Casey Cuny, professeur de lycée en Californie, exige que ses élèves rédigent la plupart de leurs travaux écrits en classe. Il utilise un logiciel pour surveiller leurs écrans d'ordinateur, allant jusqu'à les verrouiller ou à bloquer l'accès à certains sites web. M. Cuny intègre également l'intelligence artificielle à ses cours, apprenant à ses élèves à l'utiliser comme outil pédagogique « afin qu'ils apprennent avec l'IA au lieu de tricher avec elle ».
En Oregon, Kelly Gibson, professeure de lycée, a également opté pour des exercices d'écriture en classe et des examens oraux afin d'évaluer la compréhension des textes par ses élèves. À l'université Carnegie Mellon, de nombreux enseignants sont revenus aux évaluations écrites traditionnelles ou ont adopté la « classe inversée », où les devoirs sont faits en classe.
De nombreux étudiants ont déclaré utiliser fréquemment l'IA à des fins utiles, comme la recherche, la correction ou la synthèse de textes complexes. Cependant, ils ne savaient pas où fixer les limites.
Lily Brown, étudiante en deuxième année d'université, utilise ChatGPT pour structurer ses dissertations et résumer ses lectures. Elle s'interroge : « Est-ce de la triche que de résumer des lectures ? Est-ce de la triche que de faire un plan ? Si j'écris une dissertation avec mes propres mots et que je demande à une IA comment l'améliorer, ou si je la laisse la corriger, est-ce de la triche ? » De nombreux étudiants affirment que, malgré l'interdiction formelle d'utiliser une IA pour la rédaction de dissertations et la génération d'idées, de nombreuses zones d'ombre subsistent. Ils hésitent à interroger leurs professeurs par crainte d'être accusés de tricherie.
Aux États-Unis, les établissements scolaires laissent souvent la politique relative à l'IA aux enseignants, ce qui engendre des incohérences. Certains autorisent Grammarly, un outil d'aide à la rédaction basé sur l'IA, tandis que d'autres l'interdisent car il peut également réécrire des phrases. De nombreuses écoles ont initialement banni l'IA après le lancement de ChatGPT fin 2022. Mais les mentalités ont évolué. Le terme « culture de l'IA » s'est popularisé, mettant l'accent sur l'équilibre entre les avantages et les risques liés à l'IA.
Plusieurs universités, dont l'Université de Californie à Berkeley et l'Université Carnegie Mellon, ont mis en place des groupes de travail afin d'élaborer des directives plus précises à l'intention des enseignants et des étudiants. Berkeley exige que les enseignants indiquent clairement leurs attentes concernant l'utilisation de l'IA dans leurs programmes de cours. Trois options sont proposées : rendre l'IA obligatoire, l'interdire totalement ou en autoriser une utilisation partielle.
À l'université Carnegie Mellon, les fraudes académiques liées à l'IA ont explosé. Dans de nombreux cas, les étudiants ignoraient qu'ils commettaient une fraude. Par exemple, un étudiant a utilisé l'outil de traduction DeepL pour traduire son devoir en anglais, sans se rendre compte que l'outil avait également modifié son style, ce qui a entraîné le signalement de son devoir par un logiciel de détection de fraude.
L'application des politiques d'intégrité académique est plus complexe car le recours à l'IA est difficile à détecter et à prouver. De plus, les enseignants hésitent à porter plainte contre les étudiants par crainte de commettre de fausses accusations.
Pour plus de clarté, l'université Carnegie Mellon a publié des directives détaillées, indiquant qu'une interdiction pure et simple de l'IA « n'est pas une politique viable » à moins que les enseignants ne modifient leur façon d'enseigner et d'évaluer les élèves.
Emily DeJeu, professeure à la faculté de commerce de l'université Carnegie Mellon, a remplacé les devoirs par des tests informatisés en classe. Elle estime qu'il est « déraisonnable » d'attendre d'un jeune de 18 ans qu'il soit autonome et qu'il incombe à l'enseignant de mettre en place un cadre de contrôle.
Source : https://baotintuc.vn/giao-duc/tri-tue-nhan-tao-su-phat-trien-cua-ai-dat-ra-thach-thuc-lon-cho-nganh-giao-duc-20250913212725620.htm






Comment (0)