Wiele brytyjskich uniwersytetów zmaga się z nową falą oszustw akademickich: wykorzystaniem narzędzi sztucznej inteligencji, takich jak ChatGPT, do przeprowadzania prac i egzaminów. Według statystyk, w roku akademickim 2023-2024 zweryfikowano prawie 7000 przypadków naruszeń, ponad trzy razy więcej niż w roku poprzednim.
Co ciekawe, eksperci ds. edukacji twierdzą, że te liczby to zaledwie „wierzchołek góry lodowej”. Tymczasem „plagiat” (wcześniej powszechna forma oszustw akademickich) gwałtownie spada.
Sztuczna inteligencja zmienia naturę oszukiwania w szkole
Zanim narzędzia AI stały się powszechne, plagiat stanowił dwie trzecie przypadków nadużyć na brytyjskich uniwersytetach. Jednak wraz ze wzrostem zaawansowania i dostępności ChatGPT i platform wspomagających pisanie, zmieniła się natura oszustw akademickich.
Sztuczna inteligencja nie tylko pomaga uczniom „pisać” eseje, ale także sugeruje struktury, odniesienia, a nawet bardziej „naturalne” sformułowania, aby ominąć systemy wykrywające oszustwa.
Według statystyk z maja 2024 r. wskaźnik naruszeń akademickich związanych ze sztuczną inteligencją wzrósł do 7,5/1000 studentów, podczas gdy wskaźnik tradycyjnego plagiatu spadł do zaledwie około 8,5/1000. Ta zmiana tendencji utrudnia uniwersytetom wykrywanie i reagowanie na naruszenia.
Wewnętrzne badanie przeprowadzone przez brytyjski Higher Education Policy Institute wykazało, że aż 88% studentów przyznało się do korzystania ze sztucznej inteligencji (AI) w nauce i wykonywaniu zadań. W badaniu przeprowadzonym na Uniwersytecie w Reading, eseje generowane przez AI uzyskały aż 94% pozytywnych ocen w systemie egzaminacyjnym.
Dr Peter Scarfe, wykładowca psychologii na Uniwersytecie w Reading, ostrzega, że wykrycie treści generowanych przez sztuczną inteligencję jest praktycznie niemożliwe, jeśli użytkownicy wiedzą, jak je edytować.
„W przeciwieństwie do plagiatu, gdzie można porównywać skopiowany tekst, narzędzia sztucznej inteligencji tworzą nowe treści, które trudno zweryfikować. Dopóki uczeń się do tego nie przyzna, bardzo trudno go skazać” – powiedział Peter Scarfe .
Wielu studentów uważa nawet wykorzystanie sztucznej inteligencji za integralną część swoich studiów. Jeden ze studentów zarządzania przyznał, że często korzysta z ChatGPT do burzy mózgów i wyszukiwania źródeł, i że „każdy korzysta z niego w pewnym stopniu”.
„Sztuczna inteligencja nie jest zła, jeśli jest odpowiednio używana” – powiedział Thomas Lancaster z Imperial College London. „Ale najwyraźniej wielu studentów przekracza tę granicę”.
Jaki kierunek obrać dla szkolnictwa wyższego?
Mimo szybkiego wzrostu liczby naruszeń ponad 27% brytyjskich uniwersytetów nadal nie klasyfikuje nadużyć w zakresie sztucznej inteligencji jako osobnej kategorii wykroczeń, co utrudnia rejestrowanie naruszeń, ich monitorowanie i reagowanie na nie.
Tymczasem na platformach takich jak TikTok, seria filmów pokazujących uczniom, jak „obejść zasady”, staje się coraz bardziej popularna: od wykorzystania oprogramowania do reinterpretacji treści generowanych przez sztuczną inteligencję, po wskazówki dotyczące omijania filtrów wykrywających nienaturalne treści. Narzędzia te pomagają „uczłowieczyć” posty, sprawiając, że wyglądają, jakby zostały napisane przez ludzi.
Nie tylko studenci, ale także firmy technologiczne dostrzegają potencjał tej grupy użytkowników. Google oferuje studentom darmowe pakiety aktualizacji narzędzi Gemini na 15 miesięcy, a OpenAI oferuje preferencyjne ceny dla studentów w Stanach Zjednoczonych i Kanadzie.
Minister Nauki i Technologii Wielkiej Brytanii, Peter Kyle, powiedział niedawno, że sztuczna inteligencja powinna być wykorzystywana do wspierania uczniów, zwłaszcza tych z trudnościami w nauce. Podkreślił jednak również, że należy starannie rozważyć integrację sztucznej inteligencji z nauczaniem, uczeniem się i oceną, aby uniknąć nadużyć.
Source: https://baovanhoa.vn/cong-nghe/bao-dong-tinh-trang-gian-lan-thi-cu-bang-ai-tai-anh-143326.html
Komentarz (0)