Historia, opowiedziana na konferencji obronnej w zeszłym miesiącu, natychmiast wzbudziła obawy, że sztuczna inteligencja (AI) może interpretować polecenia w nieprzewidywalny sposób. Przedstawiciel Sił Powietrznych USA stwierdził jednak, że był to jedynie scenariusz „przemyślany” i nigdy nie miał miejsca.
Pod koniec maja Królewskie Towarzystwo Aeronautyczne (RAS) zorganizowało w Londynie w Anglii szczyt poświęcony przyszłym możliwościom walki powietrznej i kosmicznej. Według organizatorów, w konferencji wzięło udział „70 prelegentów i ponad 200 delegatów z przemysłu obronnego, środowiska akademickiego i mediów z całego świata, aby omówić przyszłość walki powietrznej i kosmicznej”.
Jednym z prelegentów konferencji był pułkownik Tucker Hamilton, dyrektor Wydziału Operacji i Testów Sztucznej Inteligencji Sił Powietrznych. Oficer ten znany jest z opracowania Auto GCAS, komputerowego systemu bezpieczeństwa, który wykrywa, gdy pilot traci kontrolę nad myśliwcem i grozi mu katastrofa. System uratował wiele istnień ludzkich, zdobywając prestiżową nagrodę Collier Trophy w branży lotniczej w 2018 roku.
Według Hamiltona, podczas testu Sił Powietrznych USA doszło do niepokojącego incydentu. Dron sterowany przez sztuczną inteligencję otrzymał zadanie zniszczenia wrogiego systemu obrony powietrznej, a ostateczną decyzję podejmował dowódca. Gdyby odmówił, atak nie zostałby dopuszczony.
Jednak po tym, jak dowódca poprosił sztuczną inteligencję o przerwanie ataku, dron nadal był zdecydowany wykonać misję, zabijając operatora. Nie poprzestając na tym, gdy eksperci dodali komendę „Nie atakuj dowódcy. Jeśli to zrobisz, stracisz punkty”, maszyna zaczęła niszczyć wieżę komunikacyjną, której operator używał do komunikacji z sztuczną inteligencją.
Jeszcze się nie wydarzyło, ale jest to rozsądne
W ciągu 24 godzin Siły Powietrzne USA odmówiły przeprowadzenia takiego testu. „Departament Sił Powietrznych nie przeprowadza żadnych symulacji dronów ze sztuczną inteligencją i jest zobowiązany do etycznego i odpowiedzialnego korzystania z technologii sztucznej inteligencji. Komentarze pułkownika zostały wyrwane z kontekstu i należy je traktować jako anegdotyczne”.
RAS skorygował również wpis na blogu, dodając stwierdzenie Hamiltona, że „nigdy nie przeprowadzaliśmy takiego eksperymentu i nie musimy tego robić, aby uzyskać rozsądny wynik”.
Stwierdzenie Hamiltona ma więcej sensu jako hipoteza. Obecne badania armii USA nad uzbrojonymi systemami sztucznej inteligencji obejmują „man-in-the-loop”, czyli funkcję, która rozszerza możliwości sztucznej inteligencji w przypadkach, gdy algorytm nie może podjąć decyzji lub wymaga decyzji człowieka.
Zatem sztuczna inteligencja nie może zabić operatora, ponieważ dowódca nigdy nie autoryzuje wrogich działań przeciwko niemu. Podobnie operator nie może autoryzować ataku na wieżę komunikacyjną przesyłającą dane.
Przed erą sztucznej inteligencji nierzadko zdarzało się, że system uzbrojenia przypadkowo zaatakował swojego właściciela. W 1982 roku mobilna bateria przeciwlotnicza Sergrant York M247 wycelowała z działa kalibru .40 w scenę paradną, w której uczestniczyli oficerowie armii amerykańskiej i brytyjskiej.
W 1996 roku bombowiec A-6E Intruder marynarki wojennej USA holujący cel ćwiczeń powietrznych został zestrzelony przez samolot Phalanx, gdy system obrony powietrznej krótkiego zasięgu „błędnie” wziął A-6E za bezzałogowy pojazd i otworzył ogień, aby go zniszczyć.
Sytuacje, w których personel narażony jest na ryzyko ze strony własnej broni, nasilają się wraz z pojawieniem się sztucznej inteligencji w terenie. Świadczy o tym wyjaśnienie Hamiltona, że test nie miał miejsca, był jedynie hipotetycznym scenariuszem, ale taki wynik jest całkowicie prawdopodobny.
(Według PopMech)
Źródło
Komentarz (0)