Bis zu 94 % der von künstlicher Intelligenz (KI) generierten Aufgaben blieben von den Lehrkräften unentdeckt. Selbst bei Anwendung strengerer Kriterien und expliziter Erwähnung des Begriffs „KI“ im Filterprozess blieben 97 % der KI-generierten Aufgaben unentdeckt.
Immer mehr Hausaufgaben und Tests werden von KI erstellt und von Studierenden eingereicht, um Noten, Leistungspunkte und Abschlüsse zu erhalten – Foto: Pixabay
Ein Schüler, der den einfachsten KI-Code ohne jegliche Modifikationen verwendete, hatte eine 83%ige Chance, eine bessere Note als seine Klassenkameraden zu erhalten, verglichen mit nur 6% Chance, erwischt zu werden, wenn der Lehrer keine KI-Erkennungssoftware verwendete.
Das hat ein Forscherteam aus Großbritannien herausgefunden: Lehrkräfte sind entweder gar nicht in der Lage oder nicht in der Lage, von Chatbots erstellte akademische Arbeiten zu erkennen. Eine Studie von Peter Scarfe und Kollegen der Universität Reading untersuchte, was passiert, wenn Forschende gefälschte Schülerprofile erstellen und KI-generierte Arbeiten einreichen, ohne dass die Lehrkräfte davon wissen.
Der Bildungssektor ist seit dem Börsengang von ChatGPT wohl am stärksten und negativsten betroffen. Immer mehr Hausaufgaben und Prüfungen werden von KI erstellt und anschließend von Studierenden eingereicht, um Noten, Leistungspunkte und Abschlüsse zu erhalten. Laut Forbes ist dies ein ernstes Problem, da der Mangel an praktischen Kenntnissen bei den Studierenden schwerwiegende Folgen haben kann.
Die Verhinderung von akademischem Betrug mithilfe von KI hat für die meisten Schulen und Bildungseinrichtungen noch keine Priorität. Einige Schulen erleichtern den Einsatz von KI sogar, indem sie nicht in KI-Erkennungstechnologien investieren.
Dies ist nicht das erste Mal, dass davor gewarnt wird, dass Menschen KI-generierte Texte nicht selbstständig erkennen können. Letztes Jahr kam eine Studie der University of South Florida zu dem Schluss, dass Linguisten nicht zwischen KI-generierten und von Menschen verfassten Texten unterscheiden konnten.
Eine weitere Studie ergab, dass KI-Erkennungstools deutlich effektiver waren als Lehrkräfte. Das Forschungsteam stellte fest, dass das KI-Erkennungssystem Turnitin 91 % der Arbeiten korrekt als KI-generierte Inhalte identifizierte, während Lehrkräfte nur 54,5 % der Arbeiten als „potenzielle Fälle von wissenschaftlichem Fehlverhalten“ meldeten.
Die Ergebnisse der Studie zeigten, dass fast alle KI-generierten Artikel unentdeckt blieben, wenn weder Menschen gewarnt noch KI-Erkennungswerkzeuge eingesetzt wurden. Schlimmer noch: Die Studie ergab, dass KI-generierte Artikel sogar besser abschnitten als von Menschen verfasste Artikel.
Wenn eine Schule oder ein Lehrer keine Unterstützung durch Erkennungstechnologie hat, ist der Einsatz von KI zum Betrug nahezu sicher, um die Schülerleistungen bei geringem Risiko zu verbessern. Online-Kurse sind besonders anfällig für Betrug, insbesondere für KI-gestützten Betrug, da die Lehrer ihre Schüler nicht kennen und nur wenig Einblick in deren Lernprozesse haben.
Quelle: https://tuoitre.vn/khong-phat-hien-bai-viet-do-ai-tao-ra-20250111215437798.htm










Kommentar (0)