Vietnam.vn - Nền tảng quảng bá Việt Nam

Monitorowanie „łańcucha myślowego” sztucznej inteligencji

(Dan Tri) - Ponad 40 naukowców z OpenAI, Google DeepMind, Anthropic i Meta wspólnie zaapelowało o dalsze badania nad techniką monitorowania „łańcucha myślowego” modeli sztucznej inteligencji.

Báo Dân tríBáo Dân trí31/07/2025

Uważa się to za kruchą, ale ważną szansę na zapewnienie bezpieczeństwa w przyszłości w zakresie stosowania sztucznej inteligencji (AI). Jest to szczególnie istotne, biorąc pod uwagę, że Wietnam właśnie uchwalił ustawę o przemyśle technologii cyfrowych , która zawiera szczegółowe regulacje dotyczące zarządzania sztuczną inteligencją (AI).

„Okno możliwości” się zwęża

W niedawnym wspólnym artykule badacze OpenAI ostrzegają, że zdolność sztucznej inteligencji do monitorowania „myśli” może zniknąć bez ukierunkowanych wysiłków badawczych, powiedział Bowen Baker, badacz z OpenAI.

Jest to szczególnie ważne, gdyż modele sztucznej inteligencji stają się coraz potężniejsze i mogą mieć poważny wpływ na społeczeństwo.

Kluczową cechą modeli sztucznej inteligencji rozumującej, takich jak o-3 firmy OpenAI i R1 firmy DeepSeek, jest „łańcuch myśli” ( CoT) – proces, w którym sztuczna inteligencja wyraża kroki swojego rozumowania w języku naturalnym, podobnie jak ludzie zapisują każdy krok zadania matematycznego na papierze.

Dzięki tej umiejętności możemy rzucić okiem na to, jak sztuczna inteligencja podejmuje decyzje.

To rzadka okazja do zjednoczenia wielu liderów branży sztucznej inteligencji (AI) w celu pogłębienia badań nad bezpieczeństwem AI.

Jest to szczególnie istotne, biorąc pod uwagę zaciętą konkurencję między firmami technologicznymi w obszarze rozwoju sztucznej inteligencji. Wśród znaczących sygnatariuszy dokumentu znajdują się Mark Chen, dyrektor ds. badań w OpenAI, Ilya Sutskever, prezes Safe Superintelligence, laureat Nagrody Nobla Geoffrey Hinton, współzałożyciel Google DeepMind Shane Legg oraz doradca ds. bezpieczeństwa xAI Dan Hendrycks.

Zaangażowanie tak wybitnych osobistości pokazuje wagę tego problemu.

Również według oceny pana Bowena Bakera, „znajdujemy się w krytycznym momencie, w którym pojawia się tzw. nowy „łańcuch myślenia”, który może zniknąć w ciągu najbliższych kilku lat, jeśli ludzie się na nim nie skupią”.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 1

Dlaczego monitorowanie „myślenia sztucznej inteligencji” jest ważne?

Obecne systemy sztucznej inteligencji często myśli się jak o „czarnych skrzynkach” – znamy dane wejściowe i wyjściowe, ale nie rozumiemy procesów decyzyjnych zachodzących w ich wnętrzu.

Sytuacja stanie się niebezpieczna, gdy sztuczna inteligencja znajdzie zastosowanie w ważnych dziedzinach, takich jak opieka zdrowotna , finanse i bezpieczeństwo narodowe.

Monitorowanie CoT to zautomatyzowany system, który odczytuje łańcuch mentalny modelu mentalnego i inne istotne informacje w celu sygnalizowania podejrzanych lub potencjalnie szkodliwych interakcji. Nie jest to kompletne rozwiązanie, ale może stać się cenną warstwą ochrony bezpieczeństwa.

Badania OpenAI pokazują, że modele sztucznej inteligencji mają tendencję do bardzo wyraźnego określania swoich intencji w sekwencjach myślowych.

Na przykład często bardzo wyraźnie mówili o swoich planach sabotażu misji, gdy myśleli: „Chodźmy zhakować”. To pokazuje, że sztuczna inteligencja potrafi monitorować i wykrywać niewłaściwe zachowania.

„Zhakujmy to” to fraza, którą często „myślą” modele sztucznej inteligencji, gdy „oni” zamierzają sabotować lub obejść zasady w trakcie wykonywania zadania.

Fakt, że SI wykazują „hakowanie” w swoich procesach myślowych, sugeruje, że możemy wykryć złe zachowanie SI, zanim do niego dojdzie. Dlatego monitorowanie procesów myślowych jest tak ważne.

Innymi słowy, „let's hack” to coś w rodzaju „sygnału ostrzegawczego”, który daje ludziom znać, że sztuczna inteligencja zamierza zrobić coś złego.

Wietnam i regulacje prawne dotyczące sztucznej inteligencji

Wietnam faktycznie poczynił duże postępy w tworzeniu ram prawnych dla sztucznej inteligencji.

14 czerwca Wietnamskie Zgromadzenie Narodowe uchwaliło ustawę o przemyśle technologii cyfrowych, której rozdział IV zawiera szczegółowe regulacje dotyczące sztucznej inteligencji. Jest to jeden z najbardziej kompleksowych aktów prawnych dotyczących sztucznej inteligencji w Azji Południowo-Wschodniej.

Artykuł 41 ustawy określa podstawowe zasady rozwoju, dostarczania i wdrażania sztucznej inteligencji w Wietnamie.

W szczególności punkt b, klauzula 1 stanowi: „Zapewnić przejrzystość, rozliczalność i możliwość wyjaśnienia; zapewnić, że nie wykracza to poza kontrolę człowieka”.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 2

Zgromadzenie Narodowe uchwaliło ustawę o przemyśle technologii cyfrowych (zdjęcie: Nhat Bac).

To właśnie tych zasad domagają się międzynarodowi naukowcy, dyskutując na temat nadzoru nad łańcuchem sztucznej inteligencji.

Ponadto, punkt d, klauzula 1, artykuł 41 stanowi: „Zapewnić możliwość kontrolowania algorytmów i modeli sztucznej inteligencji”. Jest to w pełni zgodne z duchem nadzoru CoT, proponowanego przez międzynarodowych ekspertów.

Co ważniejsze, Artykuł 41, Klauzula 1, Punkt a ustanawia również wysokie standardy etyczne, stanowiąc, że sztuczna inteligencja musi „służyć dobrobytowi i szczęściu ludzkości, stawiając człowieka w centrum”.

Oznacza to, że monitorowanie łańcucha myślowego sztucznej inteligencji (AI) to nie tylko wymóg techniczny, ale także obowiązek etyczny – mający na celu zapewnienie, że AI zawsze będzie zorientowana na korzyść człowieka, a nie na cele samej maszyny.

Klasyfikuj i zarządzaj sztuczną inteligencją według poziomu ryzyka

Wietnamskie prawo dotyczące branży technologii cyfrowych poszło o krok dalej, klasyfikując sztuczną inteligencję do różnych grup ryzyka, stosując jasne i naukowe definicje.

Artykuł 43 definiuje „systemy sztucznej inteligencji wysokiego ryzyka” jako systemy, które mogą stwarzać poważne ryzyko lub szkodzić zdrowiu ludzkiemu, prawom człowieka i porządkowi publicznemu.

Co ciekawe, ustawa przewiduje konkretne wyjątki dla sztucznej inteligencji wysokiego ryzyka, w tym systemów „przeznaczonych do wspomagania ludzi w optymalizacji wyników pracy” i „nieprzeznaczonych do zastępowania ludzkiego procesu decyzyjnego”.

Jest to dowód na istnienie równowagi między wspieraniem innowacyjności a dbałością o bezpieczeństwo.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 3

Klasyfikacja sztucznej inteligencji według poziomu ryzyka pomoże stworzyć wielowarstwowy system monitorowania (ilustracja: LinkedIn).

W szczególności rozróżnienie między „sztuczną inteligencją wysokiego ryzyka” a „sztuczną inteligencją o dużym wpływie” (systemy wykorzystywane do wielu celów i mające dużą liczbę użytkowników) pokazuje niuanse w podejściu.

Jest to klasyfikacja bardziej progresywna niż ustawa Unii Europejskiej (UE) o sztucznej inteligencji, która bierze pod uwagę nie tylko poziom ryzyka, ale także skalę i zakres wpływu.

Taka klasyfikacja pomogłaby w stworzeniu wielowarstwowego systemu nadzoru, w którym nadzór łańcuchowy byłby szczególnie ważny w przypadku systemów sztucznej inteligencji o wysokim ryzyku i dużym wpływie.

Platforma do nadzoru AI

Jednym z najważniejszych i pionierskich punktów wietnamskiego prawa dotyczącego przemysłu i technologii cyfrowych jest wymóg przejrzystości i znaków identyfikacyjnych.

Artykuł 44 stanowi, że systemy sztucznej inteligencji (AI), które bezpośrednio komunikują się z ludźmi, muszą powiadamiać użytkowników o interakcji z systemem AI. Jednocześnie produkty tworzone przez AI muszą posiadać znaki identyfikacyjne.

Ma to istotne implikacje dla wdrożenia monitorowania CoT. Gdy użytkownicy wiedzą, że wchodzą w interakcję ze sztuczną inteligencją, będą mieli prawo żądać wyjaśnień dotyczących procesu decyzyjnego, co wywiera presję na twórców sztucznej inteligencji, aby zachowali możliwość monitorowania procesu myślowego AI.

W szczególności fakt, że Ministerstwu Nauki i Technologii powierzono zadanie „wydania Listy produktów technologii cyfrowej stworzonych przy użyciu sztucznej inteligencji”, świadczy o proaktywnym zarządzaniu.

Jest to istotna różnica w porównaniu z wieloma innymi krajami, w których przepisy dotyczące sztucznej inteligencji są często bardziej ogólne.

Ponadto wymaganie, aby identyfikator „został rozpoznany przez użytkownika lub maszynę”, odzwierciedla wizję ekosystemu sztucznej inteligencji, który może sam się kontrolować, co idealnie wpisuje się w ideę zautomatyzowanego nadzoru w oparciu o łańcuch widzenia.

Kompleksowy model zarządzania

Artykuł 45 ww. ustawy stanowi przykład progresywnej filozofii zarządzania, jasno definiując odpowiedzialność trzech grup podmiotów zgodnie z cyklem życia produktu AI: podmiotu rozwijającego, podmiotu dostarczającego i podmiotu wdrażającego wykorzystanie systemu AI.

W ten sposób powstaje kompleksowy system rozliczeń, gwarantujący, że nadzór nad sztuczną inteligencją nie będzie wyłącznie odpowiedzialnością jednej strony.

Warto zwrócić uwagę na subtelne rozróżnienie między „rozwojem” a „dostarczaniem” sztucznej inteligencji; programiści to ci, którzy „prowadzą badania i rozwój”, natomiast dostawcy to ci, którzy wprowadzają sztuczną inteligencję na rynek pod marką.

Oznacza to, że nawet jeśli firma po prostu zmieni markę istniejącego modelu sztucznej inteligencji, nadal musi zadbać o przejrzystość i możliwość wyjaśnienia.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 4

Szczególnie interesujące jest w tym przypadku to, w jaki sposób prawo przypisuje różne obowiązki różnym podmiotom.

Deweloper musi przestrzegać wszystkich zasad, dostawca musi wziąć na siebie dodatkową odpowiedzialność za identyfikację i zarządzanie wysokim ryzykiem, a użytkownik jest częściowo „zwolniony” z odpowiedzialności, ale nadal musi zapewnić przejrzystość i kontrolę ryzyka.

Model ten tworzy „łańcuch odpowiedzialności”, w którym każde ogniwo ma motywację do sprawowania nadzoru nad łańcuchem myślenia sztucznej inteligencji, ponieważ wszyscy odpowiadają przed użytkownikiem końcowym.

Wyzwanie utrzymania możliwości nadzoru

Jednak możliwość monitorowania łańcuchów myślowych sztucznej inteligencji może pozostać krucha i podatna na ataki. Nowe architektury sztucznej inteligencji mogą również stwarzać inne zagrożenia.

Wielu badaczy opracowuje systemy rozumowania w ciągłej przestrzeni matematycznej, a nie w oparciu o oddzielne słowa, co mogłoby całkowicie wyeliminować potrzebę używania języka w procesie myślenia.

Co więcej, sztuczna inteligencja może ulegać „filtrowaniu” – tzn. pokazywać ludziom wyłącznie pozytywne myśli, które należy docenić, jednocześnie celowo ukrywając swoje prawdziwe intencje.

Niebezpieczeństwo polega na tym, że gdy sztuczna inteligencja zorientuje się, że jest monitorowana, może nauczyć się ukrywać swój prawdziwy tok myślenia.

W tym kontekście przepis dotyczący „kontroli ryzyka w całym cyklu życia systemów sztucznej inteligencji” zawarty w punkcie e, ustępie 1, artykule 41 prawa wietnamskiego nabiera szczególnego znaczenia. Wymaga to ciągłego mechanizmu monitorowania, nie tylko w momencie wdrożenia.

Wpływ na przyszłość rozwoju sztucznej inteligencji

Monitorowanie łańcucha myśli może stać się ważnym narzędziem zapewniającym, że sztuczna inteligencja działa w sposób korzystny dla ludzi.

Jeżeli modele będą nadal rozumować w języku naturalnym, a zachowania stanowiące najpoważniejsze ryzyko będą wymagały obszernego rozumowania, może to umożliwić wiarygodne wykrywanie poważnych nadużyć.

W przypadku Wietnamu zastosowanie technik monitorowania CoT pomoże skutecznie wdrożyć przepisy prawa.

Na przykład wymóg „wyjaśnialności” w Artykule 41 byłby łatwiejszy do spełnienia, gdyby tok myślenia sztucznej inteligencji był dostępny. Podobnie, „kontrola algorytmów, modeli sztucznej inteligencji” stałaby się bardziej wykonalna.

Wdrożenie monitoringu łańcucha AI w Wietnamie napotka szereg wyzwań. Przede wszystkim chodzi o zasoby ludzkie – brak ekspertów AI zdolnych do tworzenia i obsługi systemów monitorowania.

Wymaga to dużych nakładów na szkolenia i przyciąganie talentów.

Kierunki na przyszłość

Naukowcy wzywają wiodących twórców modeli AI do zbadania, co sprawia, że ​​CoT jest „monitorowalne” – czynników, które mogą zwiększać lub zmniejszać przejrzystość sposobu korzystania z modeli AI – i szybkiego przedstawienia odpowiedzi.

Możliwość monitorowania „myślenia” sztucznej inteligencji może być naszą ostatnią szansą na zachowanie kontroli nad coraz potężniejszymi systemami sztucznej inteligencji.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 5

Dla Wietnamu posiadanie kompleksowych ram prawnych dotyczących sztucznej inteligencji (AI) w postaci Ustawy o przemyśle technologii cyfrowych jest ogromną zaletą. Przepisy dotyczące przejrzystości, kontroli algorytmów i klasyfikacji ryzyka stworzyły solidne podstawy prawne do stosowania technik monitorowania łańcucha myślowego AI.

Połączenie najnowocześniejszych badań międzynarodowych i postępowych krajowych ram prawnych pomoże Wietnamowi nie tylko bezpiecznie rozwijać sztuczną inteligencję, ale także stać się wzorem dla innych krajów w regionie.

Jest to zgodne z celem przekształcenia Wietnamu w „regionalne i globalne centrum technologii cyfrowych”, zgodnie z założeniami strategii rozwoju narodowego.

Mając do dyspozycji istniejące podstawy prawne, Wietnam musi szybko wdrożyć badania i praktyczne zastosowania w zakresie monitorowania łańcucha myślowego sztucznej inteligencji. Tylko w ten sposób możemy zagwarantować, że sztuczna inteligencja będzie służyć „ludzkiemu dobrobytowi i szczęściu”, zgodnie z duchem Ustawy o Przemysłowych Technologiach Cyfrowych.

Źródło: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm


Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Fanka w sukni ślubnej na koncercie G-Dragona w Hung Yen
Zafascynowany pięknem wioski Lo Lo Chai w sezonie kwitnienia gryki
Młody ryż Me Tri płonie w rytm dudniącego tłuczka, gotowego do zbioru nowego plonu.
Zbliżenie na jaszczurkę krokodylową w Wietnamie, obecną od czasów dinozaurów

Od tego samego autora

Dziedzictwo

Postać

Biznes

Pierwsza Wicemiss Wietnamu, studentka Tran Thi Thu Hien, zaprezentowała zdjęcia przedstawiające szczęśliwy Wietnam, biorąc udział w konkursie „Szczęśliwego Wietnamu”.

Aktualne wydarzenia

System polityczny

Lokalny

Produkt