To duży model językowy (LLM) opracowany przez chińskich naukowców, który może wydawać dronom wojskowym polecenia atakowania wrogich systemów radarowych.
Według SCMP naukowcy z chińskiego przemysłu zbrojeniowego opracowali rodzaj sztucznej inteligencji, który może zwiększyć wydajność dronów wykorzystywanych w walce elektronicznej.
Ten duży model językowy (LLM), podobny do ChatGPT, mógłby wydawać polecenia dronom wyposażonym w broń walki elektronicznej, aby atakowały radary lub systemy komunikacyjne wrogich samolotów.
Wyniki testów pokazują, że zdolność systemu do podejmowania decyzji w walce powietrznej nie tylko przewyższa tradycyjne techniki sztucznej inteligencji (AI), takie jak uczenie przez wzmacnianie, ale także przewyższa doświadczonych ekspertów.
Jest to pierwsze szeroko opublikowane badanie bezpośrednio stosujące duże modele językowe do broni.
Wcześniej technologia sztucznej inteligencji była stosowana głównie w salach wojennych, gdzie dostarczała analiz wywiadowczych i wspierała decyzje dowódcom.
Projekt badawczy został zrealizowany wspólnie przez Chengdu Aircraft Design Institute należący do Aviation Industry Corporation of China i Northwestern Polytechnical University w Xi'an w prowincji Shaanxi.
Instytut jest konstruktorem chińskiego ciężkiego myśliwca stealth J-20.
Jak wynika z artykułu opublikowanego przez zespół projektu 24 października w recenzowanym czasopiśmie naukowym Detection & Control, prace te, będące wciąż w fazie eksperymentalnej, najlepiej rozumieją język ludzki spośród istniejących technologii sztucznej inteligencji.
Zespół projektowy udostępnił LLM różnorodne zasoby, w tym „serię książek na temat radarów, walki elektronicznej i powiązane zbiory dokumentów”.
Do modelu włączono również inne dokumenty, w tym zapisy walk powietrznych, zapisy składów broni i podręczniki obsługi walki elektronicznej.
Według badaczy większość materiałów szkoleniowych jest dostępna w języku chińskim.
| Projektant chińskiego myśliwca stealth J-20 jest członkiem zespołu badawczego zaangażowanego w projekt sztucznej inteligencji. Zdjęcie: Weibo |
W walce elektronicznej atakujący uwalnia specjalne fale elektromagnetyczne, aby stłumić sygnały radarowe emitowane przez cel.
Z kolei obrońca będzie próbował unikać tych ataków, stale zmieniając sygnał, zmuszając przeciwnika do korygowania strategii w czasie rzeczywistym na podstawie danych z monitoringu.
Wcześniej uważano, że LLM nie nadają się do tego typu zadań ze względu na to, że nie potrafią interpretować danych zebranych przez czujniki.
Sztuczna inteligencja często wymaga dłuższego czasu myślenia, przez co nie jest w stanie osiągnąć szybkości reakcji liczonej w milisekundach, co jest niezbędne w walce elektronicznej.
Aby uniknąć tych wyzwań, naukowcy przenieśli przetwarzanie surowych danych do mniej złożonego modelu uczenia się przez wzmacnianie. Ten tradycyjny algorytm sztucznej inteligencji doskonale radzi sobie ze zrozumieniem i analizą dużych ilości danych liczbowych.
„Parametry wektora wartości obserwacji” wyodrębnione w tym wstępnym procesie są następnie konwertowane na język ludzki za pomocą translatora maszynowego. Następnie duży model językowy przejmuje, przetwarza i analizuje te informacje.
Kompilator konwertuje odpowiedzi dużego modelu na polecenia wyjściowe, które ostatecznie sterują urządzeniem zakłócającym walkę elektroniczną.
Według naukowców, wyniki eksperymentów potwierdziły wykonalność tej technologii. Dzięki algorytmom uczenia się przez wzmacnianie, generatywna sztuczna inteligencja może szybko dostosowywać strategie ataku nawet 10 razy na sekundę.
W porównaniu z tradycyjną sztuczną inteligencją i ludzkim doświadczeniem, LLM przewyższa w tworzeniu licznych fałszywych celów na ekranach radarów wroga. Strategia ta jest uważana za bardziej wartościową w dziedzinie walki elektronicznej niż proste blokowanie szumem lub odbijanie fal radarowych od rzeczywistych celów.
Źródło






Komentarz (0)