Het is een groot taalmodel (LLM) dat is ontwikkeld door Chinese wetenschappers en waarmee militaire drones vijandelijke radarsystemen kunnen aanvallen.
Volgens de SCMP hebben wetenschappers in de Chinese defensie-industrie een type AI ontwikkeld dat de prestaties van drones voor elektronische oorlogsvoering kan verbeteren.
Met dit grote taalmodel (LLM), vergelijkbaar met ChatGPT, kunnen drones met elektronische oorlogswapens worden aangestuurd om vijandelijke vliegtuigradars of communicatiesystemen aan te vallen.
Uit testresultaten blijkt dat de besluitvorming in luchtgevechten niet alleen beter is dan die van traditionele AI-technieken (kunstmatige intelligentie), zoals reinforcement learning, maar ook beter presteert dan die van ervaren experts.
Dit is de eerste breed gepubliceerde studie waarin grote taalmodellen direct op wapens worden toegepast.
Voorheen was deze AI-technologie grotendeels beperkt tot commandocentra, waar het menselijke commandanten van inlichtingenanalyses en beslissingsondersteuning voorzag.
Het onderzoeksproject werd gezamenlijk uitgevoerd door het Chengdu Aircraft Design Institute van Aviation Industry Corporation of China en de Northwestern Polytechnical University in Xi'an, provincie Shaanxi.
Het instituut is de ontwerper van China's zware stealth-gevechtsvliegtuig J-20.
Het werk, dat zich nog in de experimentele fase bevindt, is de beste van alle bestaande AI-technologieën op het gebied van het begrijpen van menselijke taal, aldus een artikel dat het projectteam op 24 oktober publiceerde in het vakblad Detection & Control.
Het projectteam heeft LLM van diverse hulpmiddelen voorzien, waaronder 'een reeks boeken over radar, elektronische oorlogsvoering en gerelateerde documentenverzamelingen'.
Andere documenten, zoals luchtgevechtsverslagen, verslagen van de opstelling van wapendepots en handleidingen voor elektronische oorlogsvoering, werden ook in het model opgenomen.
Volgens onderzoekers zijn de meeste trainingsmaterialen in het Chinees.
| De ontwerper van de Chinese stealth-straaljager J-20 maakt deel uit van een onderzoeksteam dat betrokken is bij het AI-project. Foto: Weibo |
Bij elektronische oorlogsvoering maakt de aanvaller gebruik van specifieke elektromagnetische golven om de radarsignalen die het doelwit uitzendt, te onderdrukken.
Omgekeerd zal de verdediger proberen deze aanvallen te ontwijken door voortdurend het signaal te veranderen. Hierdoor wordt de tegenstander gedwongen om zijn strategie in real time aan te passen op basis van de bewakingsgegevens.
Vroeger dacht men dat LLM's niet geschikt waren voor dergelijke taken, omdat ze de door sensoren verzamelde gegevens niet konden interpreteren.
Kunstmatige intelligentie vereist bovendien vaak langere denktijden en haalt geen reactiesnelheid van milliseconden, essentieel bij elektronische oorlogsvoering.
Om deze uitdagingen te vermijden, hebben wetenschappers de verwerking van ruwe data uitbesteed aan een minder complex reinforcement learning-model. Dit traditionele AI-algoritme blinkt uit in het begrijpen en analyseren van grote hoeveelheden numerieke data.
De "observatiewaardevectorparameters" die uit dit voortraject worden gehaald, worden vervolgens door een machinevertaler omgezet in menselijke taal. Het grote taalmodel neemt deze informatie vervolgens over, verwerkt en analyseert.
De compiler zet de antwoorden van het grote model om in uitvoeropdrachten, die uiteindelijk de elektronische oorlogsvoeringsblokkering aansturen.
Volgens de onderzoekers bevestigden de experimentele resultaten de haalbaarheid van de technologie. Met behulp van reinforcement learning-algoritmen kan de generatieve AI aanvalsstrategieën snel aanpassen, tot wel 10 keer per seconde.
Vergeleken met traditionele AI en menselijke expertise is LLM superieur in het creëren van talloze valse doelen op vijandelijke radarschermen. Deze strategie wordt in de elektronische oorlogsvoering als waardevoller beschouwd dan simpelweg blokkeren met ruis of het afbuigen van radargolven van echte doelen.
Bron






Reactie (0)