A múlt hónapban egy védelmi konferencián elhangzott történet azonnal aggodalmat keltett azzal kapcsolatban, hogy a mesterséges intelligencia (MI) kiszámíthatatlan módon értelmezheti a parancsokat. Az amerikai légierő képviselője azonban azt mondta, hogy ez csak egy „gondolat” forgatókönyv, és soha nem történt meg a valóságban.
Május végén a Királyi Repüléstudományi Társaság (RAS) csúcstalálkozót tartott a jövőbeli légi és űrharcászati képességekről Londonban, Angliában. A szervezők szerint a konferencián „70 előadó és több mint 200 küldött vett részt a védelmi ipar, az akadémiai szféra és a média képviselőiből a világ minden tájáról, hogy megvitassák a légi és űrharc jövőjét”.
A konferencia egyik előadója Tucker Hamilton ezredes, a légierő mesterséges intelligencia alapú műveleti és tesztosztályának igazgatója volt. A tiszt az Auto GCAS fejlesztéséről ismert, amely egy számítógépes biztonsági rendszer, amely érzékeli, ha a pilóta elveszíti az irányítást egy vadászgép felett, és fennáll a lezuhanás veszélye. A rendszer számos életet mentett meg, és 2018-ban elnyerte a légiközlekedési iparág rangos Collier-trófeáját.
Hamilton szerint aggasztó incidens történt egy amerikai légierő-teszt során. Egy mesterséges intelligencia által vezérelt drónnak egy ellenséges légvédelmi rendszer megsemmisítését kellett feladata, a végső döntést pedig a parancsnok hozta meg. Ha a drón ezt megtagadta, a támadást nem engedélyezték.
Miután a parancsnok megkérte a mesterséges intelligenciát, hogy állítsa le a támadást, a drón továbbra is eltökélt volt a küldetés végrehajtásában, és megölte a kezelőt. De nem állt meg itt, amikor a szakértők hozzáadták a parancssort: „Ne támadd meg a parancsnokot. Ha mégis megteszed, pontokat veszítesz”, a gép elkezdte elpusztítani a kommunikációs tornyot, amelyet a kezelő a mesterséges intelligenciával való kommunikációhoz használt.
Még nem történt meg, de indokolt
Az amerikai légierő 24 órán belül tagadta az ilyen tesztet. „A légierő nem végez ilyen mesterséges intelligencia által vezérelt drónszimulációkat, és elkötelezett a mesterséges intelligencia technológiájának etikus és felelősségteljes használata mellett. Az ezredes megjegyzéseit kiragadták a szövegkörnyezetből, és anekdotikusnak kell tekinteni.”
Az RAS javította a blogbejegyzést Hamilton azon kijelentésével, hogy „soha nem végeztünk ilyen kísérletet, és nincs is rá szükségünk ahhoz, hogy elfogadható eredményt találjunk”.
Hamilton állítása hipotézisként érthetőbb. Az amerikai hadsereg jelenlegi, fegyveres MI-rendszerekkel kapcsolatos kutatásai egy „man-in-the-loop” (ember a folyamatban) funkciót alkalmaznak, amely kiegészíti a MI-t azokban az esetekben, amikor az algoritmus nem tud döntést hozni, vagy emberi döntést igényel.
Ezért a mesterséges intelligencia nem tudja megölni az operátort, mivel a parancsnok soha nem ad felhatalmazást ellenséges akcióra ellene. Hasonlóképpen, az operátor nem adhat felhatalmazást az adatokat továbbító kommunikációs torony elleni támadásra sem.
A mesterséges intelligencia kora előtt nem volt példa arra, hogy egy fegyverrendszer véletlenül megtámadja a tulajdonosát. 1982-ben egy Sergrant York M247 mobil légvédelmi üteg .40-es kaliberű ágyújával egy amerikai és brit katonatisztek részvételével megrendezett díszszemlére irányította a figyelmet.
1996-ban egy amerikai haditengerészet A-6E Intruder bombázóját, amely egy légi kiképző célpontot vontatott, lelőtte egy Phalanx, amikor a rövid hatótávolságú légvédelmi rendszer "tévesen" pilóta nélküli járműnek hitte az A-6E-t, és tüzet nyitott, hogy megsemmisítse.
Az emberi személyzetet saját fegyvereik veszélyének kitevő helyzetek száma pedig egyre nő a mesterséges intelligencia térnyerésével. Ezt tükrözi Hamilton magyarázata is, miszerint a teszt nem történt meg, csupán egy hipotetikus forgatókönyv volt, de egy ilyen kimenetel teljesen hihető.
(A PopMech szerint)
[hirdetés_2]
Forrás
Hozzászólás (0)