Dr. Le Duy Tan, Dozent an der Fakultät für Informationstechnologie der International University, Vietnam National University Ho Chi Minh City, und Mitbegründer des AIoT Lab VN, sagte, dass die Nutzung von KI durch Studenten zur Unterstützung ihres Studiums, ihrer Aufgaben, Berichte und Abschlussarbeiten ein weltweit verbreiteter Trend sei.
Laut einer globalen Umfrage des Digital Education Council aus dem Jahr 2024 gaben rund 86 % der Studierenden an, KI-Tools im Studium zu nutzen; davon verwenden etwa 54 % diese wöchentlich. Eine Umfrage von Save My Exams aus dem Juni 2025 zeigte zudem, dass 75 % der Studierenden KI für Hausaufgaben einsetzen, wobei 24 % dies täglich und 44 % wöchentlich tun.

Der Einsatz von KI durch Studenten zur Unterstützung ihres Lernens und ihrer Forschung wird immer üblicher.
FOTO: NGOC LONG
Neben den positiven Aspekten ist es unvermeidlich, dass einige Schüler KI-Tools missbrauchen werden.
KI nutzen, um KI zu verbergen
Laut Dr. Le Duy Tan nutzen einige Studierende KI für Hausarbeiten, Berichte und Abschlussarbeiten, ohne die Funktionsweise und die Grenzen des Tools vollständig zu verstehen. Dies führt dazu, dass sie nach und nach ihre Fähigkeiten zum kritischen Denken, zum Schreiben und zur selbstständigen Recherche verlieren.
In einer Online-Veranstaltung der Zeitung Thanh Nien erklärte Dr. Dinh Ngoc Thanh, Technischer Direktor von OpenEdu, dass viele Schüler Tools wie ChatGPT nutzen, um Hausaufgaben zu lösen, anstatt selbstständig zu lernen, was zu einem vermeintlich einfacheren Lernerlebnis führe. Dies sei jedoch ein gefährlicher Ansatz, der den pädagogischen Prinzipien widerspreche, da das Ziel von Bildung nicht nur die Erledigung von Aufgaben sei, sondern auch die Entwicklung von kritischem Denken und Problemlösungskompetenzen.
Herr Pham Tan Anh Vu, Leiter der Repräsentanz der Vietnam Artificial Intelligence Solutions Company (VAIS) für die Südregion, erklärte, dass KI-generierte Texte im Zeitraum von 2022 bis 2024 häufig leicht erkennbare „digitale Fingerabdrücke“ aufweisen. Der Schreibstil ist einheitlich, emotionslos und wiederholt bekannte Strukturen wie „nicht nur … sondern auch …“ mit formelhaften Übergangsphrasen wie „darüber hinaus“, „außerdem“ und endet stets mit einem erzwungenen „kurz gesagt“. Der Inhalt ist makellos, mit perfekter Rechtschreibung, und die Tendenz, Punkte in Stichpunkten aufzulisten, sind allesamt Indizien für den Einfluss von KI.
Eine gravierendere Schwäche liegt in den von KI generierten Inhalten. Hierbei handelt es sich um das Phänomen der „Halluzination“, bei dem KI Informationen, Daten oder sogar nicht existierende Quellen erfindet. „Viele von KI generierte Artikel gleichen einer Zusammenstellung verschiedener Code-Schnipsel, was zu einem uneinheitlichen Schreibstil und unlogischen Absätzen führt“, bemerkte Herr Vu.
Um bis 2025 KI-gestützte Plagiatserkennungstools zu überwinden, werden Studierende immer raffinierter vorgehen. Ein neuer Technologiezweig ist entstanden: KI-gestützte Tools zur Textpersonifizierung.
Die Studierenden entwickelten ein Verfahren: Sie nutzten ChatGPT zum Verfassen von Entwürfen, übertrugen diese zur Überarbeitung in Quillbot und entfernten schließlich mithilfe von „Personifizierungs“-Tools wie Undetectable AI alle Spuren. Einige Studierende bauten sogar absichtlich kleine Fehler ein, um den Text natürlicher wirken zu lassen.
„Zum jetzigen Zeitpunkt ist es wahrscheinlich unmöglich festzustellen, ob ein Aufsatz mithilfe von KI erstellt wurde, und ihn mit einem vollständig von einem Schüler verfassten Aufsatz zu vergleichen, da die Menschen seit jeher viele ausgeklügelte Tricks anwenden, um sowohl Maschinen als auch Lehrer bei der Bewertung von Arbeiten zu täuschen“, behauptete Herr Vu.
Aus der gleichen Perspektive argumentiert Dr. Le Duy Tan, dass Artikel, die „zu sauber“ sind, frei von Rechtschreibfehlern, ohne persönliche Erfahrung oder Beweise und mit einem monotonen Schreibstil, höchst verdächtig sind.

Es ist für Dozenten sehr schwierig, die wahren Fähigkeiten der Studierenden genau einzuschätzen, wenn die Lernenden KI für Aufgaben, Tests, Recherchen usw. verwenden.
Foto: TN erstellt mit KI
Die Kluft zwischen „virtueller Kompetenz“ und realen Fähigkeiten.
Laut Experten ist der Missbrauch von KI durch Studenten nicht nur Betrug, sondern untergräbt das Fundament der Bildung selbst.
Herr Pham Tan Anh Vu äußerte seine größte Sorge: die Gefahr, dass KI die Fähigkeit der Schüler zum selbstständigen und kritischen Denken beeinträchtigt. Denn sobald sie sich daran gewöhnt haben, Probleme durch sofortige Antworten von KI zu lösen, verlieren sie allmählich die Geduld, Originaldokumente zu lesen und zu verstehen oder Informationen selbstständig zu verarbeiten.
„Wie schon Dr. Nguyen Chi Thanh, außerordentlicher Professor und Leiter der Fakultät für Erziehungswissenschaften an der Pädagogischen Universität der Nationalen Universität Vietnam in Hanoi , einmal vor der Gefahr warnte, dass Nutzer zu ‚digitalen Sklaven‘ werden – einem Zustand der Abhängigkeit, der die drei stärksten menschlichen Fähigkeiten unterdrückt: Problemlösung, Kreativität und Selbstlernen“, sagte Herr Vu.
Noch gefährlicher ist, dass KI eine „Illusion von Kompetenz“ erzeugen kann. Eine Literaturlehrerin in Ho-Chi-Minh-Stadt berichtete, dass sie einmal viele Schüler dabei beobachtet habe, wie sie dasselbe KI-Tool für ihre Aufgaben nutzten, aber auf Nachfrage zum Inhalt nicht erklären konnten, was sie geschrieben hatten. Dies zeigt, dass die wachsende Kluft zwischen wahrgenommener Kompetenz und tatsächlichem Wissen eine „tickende Zeitbombe“ darstellt, die explodieren könnte, sobald die Absolventen in den Arbeitsmarkt eintreten.
„Der übermäßige Einsatz von KI macht auch traditionelle Bewertungsmethoden unwirksam. Hausaufgaben wie Essays und Gruppenberichte, die dazu gedacht waren, Forschungs- und Denkfähigkeiten zu messen, werden plötzlich bedeutungslos, was es den Dozenten sehr schwer macht, die wahren Fähigkeiten der Studierenden genau einzuschätzen“, betonte dieser Lehrer.
Dr. Le Duy Tan ist daher der Ansicht, dass die wichtigste Lösung in der Überarbeitung der Bewertungsmethode liegt. Aufgaben sollten Studierende dazu anhalten, mit einer persönlichen Gliederung zu beginnen, ihren Arbeitsprozess zu dokumentieren, ihre Erfahrungen zu analysieren, darzulegen, wie sie Informationen gefunden und überprüft haben, oder eine direkte Frage-Antwort-Runde zu integrieren. Studien zeigen, dass Bewertungen, die Analyse, Bewertung und Kreativität in den Vordergrund stellen, anstatt lediglich zusammenzufassen, dazu beitragen, die Abhängigkeit von KI im gesamten Prozess zu verringern.
„Um festzustellen, ob ein Student sein Studium ernst nimmt oder KI effektiv einsetzt, müssen die Lehrkräfte ihre Lehrmethoden ändern und das Thema anhand dreier Schlüsselelemente vermitteln: klares Wissen, festes Verständnis und tiefes Begreifen. Nur so können sie die Fähigkeiten der Studenten im Umgang mit KI-Werkzeugen wirklich fördern“, sagte Herr Vu.

KI-Tools helfen Studenten dabei, Forschungsberichte zu erstellen, wissenschaftliche Arbeiten zusammenzufassen und vieles mehr.
Foto: Screenshot
Die Grenze zwischen Hilfeleistung und Betrug
Angesichts der Tatsache, dass KI zu einem unverzichtbaren Werkzeug wird, ist die Frage, ob Studierende KI nutzen dürfen, nicht mehr relevant. Viel wichtiger ist es, die Grenzen des KI-Einsatzes in der Wissenschaft zu definieren.
Laut Herrn Pham Tan Anh Vu liegt die Grenze in Zweck, Methode und Haltung. KI ist nur dann ein sinnvolles Werkzeug, wenn sie zur Ideengenerierung, zur Unterstützung beim Zusammenfassen von Dokumenten, zur Fehlerprüfung oder zur Erklärung komplexer Fachbegriffe eingesetzt wird. Studierende müssen „langsam lesen“, Informationen kritisch hinterfragen und die letztendliche Verantwortung für den Inhalt übernehmen. Kopieren Studierende hingegen den von der KI generierten Inhalt ganz oder größtenteils wortwörtlich und reichen ihn als ihre eigene Arbeit ein, so stellt dies akademischen Betrug dar.
Herr Vu argumentierte außerdem, dass KI als eine wesentliche Kompetenz für Studenten anerkannt werden sollte; anstatt sie zu unterdrücken, sollte KI anerkannt und ihre Nutzung in das Ausbildungsprogramm integriert werden.
Bezüglich der Lösungsansätze schlug Dr. Duy Tan vor, dass Universitäten und Dozenten Richtlinien für den Einsatz von KI in Lehrveranstaltungen, Aufgaben und Abschlussarbeiten entwickeln und klar kommunizieren sollten. Beispielsweise sollte in der Aufgabenstellung klar formuliert sein: „Studierende dürfen KI-Tools verwenden/nicht verwenden; falls verwendet, müssen die Tools genau spezifiziert werden, einschließlich der KI-gestützten und der von Studierenden selbst bearbeiteten Teile.“ Studierende sollten im verantwortungsvollen, ethischen und effektiven Umgang mit KI geschult werden. Es reicht nicht, lediglich ein Verbot auszusprechen; vielmehr sollten sie angeleitet werden, wie sie KI zur Überprüfung von Ergebnissen, zur Datenverifizierung, zur Analyse und zur Weiterentwicklung von KI-Ideen einsetzen können.
Ein gemeinsamer Rechtsrahmen auf nationaler Ebene ist erforderlich.
Laut Herrn Pham Tan Anh Vu sind die Pionierleistungen der Universitäten zwar sehr wichtig, doch um einen synchronen Wandel zu bewirken, benötigen wir einen gemeinsamen Verhaltenskodex und einen einheitlichen Rechtsrahmen auf nationaler Ebene. Wir dürfen nicht zulassen, dass ein Missbrauch von KI an einer Universität als Betrug gilt und mit null Punkten bewertet wird, an einer anderen jedoch akzeptiert wird.
Vietnam muss einen klaren Rechtsrahmen aufbauen, der auf folgenden Kernprinzipien basiert: Einhaltung von Recht und Ethik; Fairness und Nichtdiskriminierung; Transparenz und Rechenschaftspflicht (wer ist verantwortlich, wenn KI Fehler macht); und ein menschenzentrierter Ansatz (der Mensch behält immer die letztendliche Kontrolle).
Quelle: https://thanhnien.vn/sinh-vien-dung-thu-thuat-de-che-dau-ai-185251211185713308.htm






Kommentar (0)