W wywiadzie dla gazety PNVN dr Le Duc Thuan, ekspert w dziedzinie technologii edukacyjnych , podzielił się swoją wizją ogromnej roli sztucznej inteligencji i zaproponował pilne rozwiązania mające na celu zapewnienie inkluzywności i równości wszystkim uczniom.
- Jako ekspert w dziedzinie edukacji i technologii edukacyjnych, w jaki sposób ocenia Pan rolę i potencjał sztucznej inteligencji w dzisiejszym wietnamskim systemie edukacji?
Biuro Polityczne uznało rolę sztucznej inteligencji (AI) w wietnamskiej edukacji za priorytetowy przełom, kluczową siłę napędową szybkiego rozwoju nowoczesnych sił wytwórczych i sposób na uniknięcie pozostawania w tyle w nowej erze. Popularyzacja i zastosowanie sztucznej inteligencji w edukacji stały się narodowym zadaniem strategicznym.
Potencjał zastosowań sztucznej inteligencji w wietnamskim sektorze edukacji jest ogromny, a jego celem jest stworzenie nowoczesnego, elastycznego i zorientowanego na ucznia systemu edukacji, a w szczególności:
Dla uczniów: Sztuczna inteligencja ma potencjał personalizacji nauczania, pomagając nauczycielom w projektowaniu spersonalizowanych ścieżek nauczania. Technologia ta śledzi postępy w nauce, analizuje mocne i słabe strony uczniów, aby na bieżąco przedstawiać sugestie dotyczące ulepszeń, a także usprawnia samodzielną naukę.
Dla nauczycieli: Sztuczna inteligencja działa jak inteligentny asystent, redukując powtarzalne zadania administracyjne, takie jak planowanie lekcji, tworzenie testów i wsparcie oceniania. Dzięki temu nauczyciele mogą zmienić swoją rolę z osoby przekazującej wiedzę na osobę projektującą doświadczenia edukacyjne, koncentrując się na bezpośredniej interakcji i pielęgnowaniu humanistycznych cech u uczniów.
Dla administratorów oświaty: sztuczna inteligencja wspiera zarządzanie szkołą w oparciu o dane, tworzenie i udoskonalanie krajowych systemów baz danych, takich jak cyfrowe rejestry uczniów i cyfrowe dyplomy, dążąc do przejrzystości i interoperacyjności z innymi krajowymi systemami danych...

Dr Le Duc Thuan
- Jakie są według Ciebie największe wyzwania, z którymi mierzą się nauczyciele i uczniowie, gdy zaczynają korzystać z narzędzi sztucznej inteligencji w procesie nauczania i uczenia się?
Największym wyzwaniem nie jest tylko kwestia techniczna, ale także brak krytycznego myślenia, etyki i gotowości systemu.
Z perspektywy nauczycieli: Obecnie występuje znaczny niedobór pogłębionych i ujednoliconych szkoleń. Większość nauczycieli (około 61%) musi samodzielnie nauczyć się, jak integrować sztuczną inteligencję z lekcjami.
Tymczasem formalne szkolenia organizowane przez Ministerstwo lub Departament Edukacji i Szkolenia pozostają ograniczone (tylko około 31,87%), co prowadzi do nierównej jakości stosowania technologii i braku cyfrowego myślenia pedagogicznego... Ten brak przygotowania tworzy „podwójne obciążenie”, ponieważ nauczyciele muszą sami nauczać, rozwiązywać problemy techniczne i uczyć się nowych narzędzi, co dodatkowo zwiększa ich obciążenie pracą...
Ponadto sztuczna inteligencja niesie ze sobą ryzyko utraty kompetencji zawodowych, ponieważ jest w stanie zautomatyzować projektowanie lekcji i ocenianie, co może prowadzić do „upadku” podstawowych kompetencji nauczycieli, jeśli będą oni nadużywać tej technologii...
Z perspektywy uczniów: sztuczna inteligencja stwarza ryzyko uzależnienia i osłabienia krytycznego myślenia. Wygoda sztucznej inteligencji sprawia, że uczniowie są skłonni do nadmiernego polegania na niej. Bez wsparcia uczniowie mogą pomijać proces samodzielnego myślenia, kreatywności i rozwiązywania problemów, zamiast tego biernie akceptując rezultaty sztucznej inteligencji.
Co więcej, problem „iluzji sztucznej inteligencji” i dezinformacji pojawia się, gdy modele generowane przez sztuczną inteligencję mogą tworzyć niedokładne lub sfabrykowane informacje, a jednocześnie prezentować je pewnie i płynnie. Zdarzały się przypadki, gdy sztuczna inteligencja wymyślała nieistniejące informacje, zdarzenia lub odniesienia. Wymaga to od uczniów krytycznego myślenia i umiejętności weryfikacji informacji – umiejętności, którą tylko około 20% uczniów osiąga w testach wysokiego poziomu.
Co więcej, sztuczna inteligencja zagraża uczciwości akademickiej, gdyż generuje nowe treści, co utrudnia wykrywanie plagiatów przez tradycyjne narzędzia.
- Niektórzy twierdzą, że stosowanie sztucznej inteligencji grozi pogłębieniem przepaści między uczniami z miast (którzy mają lepszy dostęp do technologii) a uczniami z terenów wiejskich. Jakie jest Pana zdanie na ten temat?
Zgadzam się, że ryzyko pogłębienia się przepaści cyfrowej stanowi realne i poważne wyzwanie. A konkretnie:
Wyzwania infrastrukturalne i zasobowe: Proces transformacji cyfrowej nadal napotyka na różnice w infrastrukturze IT i sprzęcie między poszczególnymi lokalizacjami, zwłaszcza na obszarach oddalonych. Badania przeprowadzone w środkowym Wietnamie pokazują, że nauczyciele uważają infrastrukturę polityczną i technologiczną za czynniki mające największy wpływ na wdrażanie sztucznej inteligencji, podkreślając zależność od wsparcia wyższego szczebla.
- Luka kompetencyjna: Nadal istnieją znaczne różnice w kompetencjach nauczycieli między regionami. Nauczyciele na obszarach wiejskich i górskich zgłaszają większy brak kompetencji zawodowych jako wyzwanie w porównaniu z ich kolegami z miast.
Dostęp do zaawansowanych narzędzi: Uczniowie mieszkający na obszarach miejskich mają dostęp do zaawansowanych narzędzi wykorzystujących sztuczną inteligencję, natomiast uczniowie mieszkający na terenach wiejskich/w niekorzystnej sytuacji nie mają dostępu do niezbędnego sprzętu ani stabilnego dostępu do Internetu.
Aby temu zaradzić, konieczna jest polityka inkluzywna i sprawiedliwa. Konieczne jest ukierunkowane inwestowanie w infrastrukturę fizyczną i technologię, aby zmniejszyć różnice między obszarami miejskimi a wiejskimi; priorytetem powinno być rozwijanie i wykorzystywanie darmowego oprogramowania typu open source oraz łatwo dostępnych platform, aby obniżyć koszty dostępu; konieczna jest również strategia ciągłego szkolenia nauczycieli z obszarów defaworyzowanych, aby rozwijać ich cyfrowe umiejętności pedagogiczne.
- Według Pana, w jaki sposób wykorzystanie sztucznej inteligencji może nie osłabiać, a wręcz przeciwnie, rozwijać krytyczne myślenie i kreatywność uczniów?
Wspieranie krytycznego myślenia i kreatywności w erze sztucznej inteligencji wymaga zmiany w projektowaniu zadań i metodach nauczania, skupiając się na procesie i krytycznej ocenie, a nie tylko na ocenie produktu końcowego.
Po pierwsze, konieczne jest zaprojektowanie ćwiczeń wymagających myślenia wyższego rzędu. Przesuń punkt ciężkości oceny z zapamiętywania na umiejętności wyższego rzędu, takie jak analiza, synteza i ocena; przydzielaj złożone, wielowarstwowe projekty lub scenariusze z życia wzięte, wymagające osobistych kontaktów lub wiedzy lokalnej, których sztuczna inteligencja nie jest w stanie w pełni rozwiązać; a na koniec zastosuj odwrotny model oceny, w którym uczniowie rozpoczynają od otrzymania treści wygenerowanych przez sztuczną inteligencję (takich jak szkic, rozwiązanie matematyczne) i są oceniani na podstawie ich zdolności do krytycznej oceny, korekty, udoskonalenia i przedstawienia mocnych argumentów za wprowadzonymi zmianami.
Po drugie, należy skupić się na rozwijaniu umiejętności krytycznego myślenia w odniesieniu do wyników AI. Studenci powinni być zobowiązani do oceny, weryfikacji i walidacji treści generowanych przez AI, aby zwalczać „złudzenia AI” i stronniczość, a tym samym wspierać czujność akademicką; działania takie jak analiza rozmów chatbotów czy debata na temat etyki AI powinny być podejmowane w celu doskonalenia umiejętności rozumowania i wieloaspektowego spojrzenia.
Po trzecie, priorytetem musi być przejrzystość i proces. Nauczyciele powinni wymagać od uczniów dokumentowania procesu pracy, w tym zapisywania i przesyłania pełnej historii użytych poleceń, odpowiedzi sztucznej inteligencji i kroków edycji; zapewnić dogłębną edukację w zakresie technik wiersza poleceń, ucząc uczniów, jak pisać skuteczne, konkretne polecenia, aby osiągnąć pożądane rezultaty, oraz rozumieć ograniczenia narzędzia...

Uczniowie byli entuzjastycznie nastawieni do lekcji, w ramach której wykorzystano sztuczną inteligencję do tworzenia filmów ilustrujących wykład.
- Twoim zdaniem, jakie konkretne wytyczne/przepisy etyczne i prawne powinno wdrożyć Ministerstwo Edukacji i Szkolenia, aby zarządzać wykorzystaniem sztucznej inteligencji w edukacji?
Ustanowienie ram prawnych i etycznych jest pilne, zwłaszcza że Ministerstwo Edukacji i Szkolenia prowadzi pilotażowe prace nad włączeniem treści dotyczących sztucznej inteligencji do programu nauczania. Przepisy te muszą być zgodne z zasadami zorientowanymi na człowieka i etyką AI.
Po pierwsze, z etycznego i transparentnego punktu widzenia, konieczne jest wyraźne stwierdzenie, że to ludzie (nauczyciele lub studenci) ponoszą ostateczną odpowiedzialność za wszystkie decyzje lub wyniki generowane przez sztuczną inteligencję. Sztuczna inteligencja powinna być jedynie narzędziem wspomagającym, a nie zastępującym proces decyzyjny; przepisy powinny nakazywać publiczne ujawnianie i cytowanie wszelkiej pomocy sztucznej inteligencji w zadaniach i badaniach. Studenci powinni być zobowiązani do przesyłania pełnej historii poleceń i wyników sztucznej inteligencji w formie załącznika, który będzie stanowił podstawę oceny procesu i rzetelności akademickiej; powinny obowiązywać zasady wymagające od użytkowników weryfikacji i weryfikacji wszystkich informacji dostarczanych przez sztuczną inteligencję z wykorzystaniem wiarygodnych źródeł.
Po drugie, z perspektywy prawnej i bezpieczeństwa cyfrowego, potrzebne są szczegółowe wytyczne dotyczące zakazu wprowadzania przez nauczycieli i uczniów danych osobowych lub poufnych do publicznych narzędzi sztucznej inteligencji. Przestrzeganie ustawy o ochronie danych osobowych i podobnych przepisów jest kluczowe.
Co więcej, konieczne jest wdrożenie przepisów, które całkowicie zabronią stosowania systemów sztucznej inteligencji o niedopuszczalnym ryzyku, zwłaszcza tych, które mają na celu wywnioskowanie emocji w kontekście edukacyjnym, ponieważ naruszają one prywatność i stwarzają potencjalne ryzyko manipulacji.
Na koniec należy określić wytyczne dotyczące stosowania modeli klasyfikacji ryzyka (takich jak czerwony/żółty/zielony), aby jasno zdefiniować dopuszczalne poziomy wykorzystania sztucznej inteligencji w każdej aktywności oceniającej, a konkretnie: Czerwony zabrania stosowania sztucznej inteligencji do testów podstawowych umiejętności (takich jak znajomość języka, samodzielne myślenie i osobista refleksja); Zielony/Żółty zezwala na stosowanie sztucznej inteligencji jako asystenta pomysłów, podsumowań lub wsparcia w korekcie gramatycznej, ale pod warunkiem wyraźnego nadzoru i ujawnienia informacji.
Po trzecie, w odniesieniu do rozwoju potencjału nauczycieli i wsparcia systemowego, wkrótce powinny zostać opublikowane krajowe ramy kompetencji cyfrowych dla nauczycieli, stanowiące podstawę programów szkoleniowych i rozwoju zawodowego. Ramy te powinny obejmować pięć aspektów UNESCO: myślenie zorientowane na człowieka, etykę sztucznej inteligencji, platformy i aplikacje sztucznej inteligencji, pedagogikę sztucznej inteligencji oraz sztuczną inteligencję w rozwoju zawodowym. Potrzebna jest polityka ciągłego rozwoju zawodowego, koncentrująca się nie tylko na narzędziach, ale także na myśleniu w zakresie pedagogiki cyfrowej i etyce sztucznej inteligencji, a jednocześnie wzmacniająca partnerstwa publiczno-prywatne w celu wykorzystania zasobów ekspertów.
W szczególności konieczne jest opracowanie polityki mającej na celu ustalenie priorytetów w zakresie przydzielania zasobów i funduszy na wyposażenie niezbędnych obiektów i sprzętu oraz modernizację infrastruktury sieciowej dużej prędkości w celu zagwarantowania jednolitego wdrażania.
Dziękuję, panie!
Source: https://phunuvietnam.vn/de-xuat-chinh-sach-pho-cap-ai-cong-bang-trong-giao-duc-238251214200937994.htm






Komentarz (0)