Mehrere britische Universitäten sehen sich mit einer neuen Welle akademischen Betrugs konfrontiert: dem Einsatz von KI-Tools wie ChatGPT bei der Bearbeitung von Aufgaben und Prüfungen. Laut Statistik wurden im akademischen Jahr 2023/24 fast 7.000 Fälle von Verstößen festgestellt, mehr als dreimal so viele wie im Vorjahr.
Bildungsexperten meinen, diese Zahlen seien nur die „Spitze des Eisbergs“. Gleichzeitig ist die Zahl der Plagiate (eine früher weit verbreitete Form des akademischen Betrugs) stark rückläufig.
KI verändert die Art des Schulbetrugs
Bevor KI-Tools weit verbreitet waren, waren zwei Drittel aller Verfehlungen an britischen Universitäten auf Plagiate zurückzuführen. Doch mit der zunehmenden Ausgereiftheit und Zugänglichkeit von ChatGPT und Schreibhilfeplattformen hat sich die Art des akademischen Betrugs verändert.
KI hilft Schülern nicht nur beim „Schreiben“ von Aufsätzen, sondern schlägt auch Strukturen, Referenzen und sogar „natürlichere“ Formulierungen vor, um Betrugserkennungssysteme zu umgehen.
Laut Statistiken ist die Rate akademischer Verstöße im Zusammenhang mit KI bis Mai 2024 auf 7,5 pro 1.000 Studierende gestiegen, während die Zahl der traditionellen Plagiate auf nur etwa 8,5 pro 1.000 gesunken ist. Diese Umkehrung erschwert es den Universitäten, Verstöße zu erkennen und zu behandeln.
Eine interne Umfrage des britischen Higher Education Policy Institute ergab, dass bis zu 88 % der Studierenden angaben, KI zum Lernen und Erledigen von Aufgaben zu nutzen. Bei einem Test an der University of Reading bestanden KI-generierte Essays das Prüfungssystem mit einer Quote von bis zu 94 %.
Dr. Peter Scarfe, Dozent für Psychologie an der University of Reading, warnte, dass es fast unmöglich sei, KI-generierte Inhalte zu erkennen, wenn die Benutzer wüssten, wie sie diese bearbeiten können.
„Anders als beim Plagiat, bei dem man kopierten Text vergleichen kann, erstellen KI-Tools neue Inhalte, die schwer zu überprüfen sind. Sofern der Student es nicht zugibt, ist es sehr schwierig, ihn zu überführen“, sagte Peter Scarfe .
Viele Studierende betrachten den Einsatz von KI sogar als integralen Bestandteil ihres Studiums. Ein Student der Betriebswirtschaftslehre gab zu, dass er ChatGPT häufig zum Brainstorming und zur Suche nach Referenzen nutzt und dass „jeder es in gewissem Umfang nutzt“.
„KI ist nicht schlecht, wenn sie richtig eingesetzt wird“, sagte der Wissenschaftler Thomas Lancaster vom Imperial College London. „Aber viele Studierende überschreiten offensichtlich diese Grenze.“
Welche Richtung soll die Hochschulbildung einschlagen?
Trotz der rapiden Zunahme von Verstößen klassifizieren mehr als 27 % der britischen Universitäten den Missbrauch von KI immer noch nicht als separate Kategorie von Fehlverhalten, was die Erfassung, Überwachung und Reaktion auf Verstöße erschwert.
Auf Plattformen wie TikTok verbreiten sich inzwischen zahlreiche Videos , die Schülern zeigen, wie sie „die Regeln umgehen“ können: von der Verwendung von Software zur Neuinterpretation KI-generierter Inhalte bis hin zu Tipps zum Umgehen von Filtern, die unnatürliche Inhalte erkennen. Diese Tools tragen dazu bei, Beiträge zu „humanisieren“ und sie so aussehen zu lassen, als wären sie von Menschen geschrieben.
Nicht nur Studierende, sondern auch Technologieunternehmen erkennen das Potenzial dieser Nutzergruppe. Google verschenkt 15 Monate lang kostenlose Upgrade-Pakete für das Gemini-Tool an Studierende, während OpenAI Studierenden in den USA und Kanada Vorzugspreise bietet.
Der britische Wissenschafts- und Technologieminister Peter Kyle erklärte kürzlich, KI solle zur Unterstützung von Schülern eingesetzt werden, insbesondere von Schülern mit Lernschwierigkeiten. Er betonte jedoch auch, dass die Integration von KI in Lehre, Lernen und Bewertung sorgfältig abgewogen werden müsse, um Missbrauch zu vermeiden.
Quelle: https://baovanhoa.vn/cong-nghe/bao-dong-tinh-trang-gian-lan-thi-cu-bang-ai-tai-anh-143326.html
Kommentar (0)