Vietnam.vn - Nền tảng quảng bá Việt Nam

Adevărul despre schimbarea arbitrară a ordinelor de către inteligența artificială a armatei americane și uciderea ofițerilor comandanți

VietNamNetVietNamNet07/06/2023


Povestea, relatată la o conferință despre apărare luna trecută, a stârnit imediat îngrijorări cu privire la faptul că inteligența artificială (IA) ar putea interpreta comenzile în moduri imprevizibile. Cu toate acestea, un reprezentant al Forțelor Aeriene ale SUA a declarat că este doar un scenariu „gândit” și că nu s-a întâmplat niciodată.

La sfârșitul lunii mai, Societatea Regală Aeronautică (RAS) a organizat la Londra, Anglia, un summit privind viitoarele capabilități de luptă aeriană și spațială. Potrivit organizatorilor, conferința a inclus „70 de vorbitori și peste 200 de delegați din industria de apărare, mediul academic și mass-media din întreaga lume pentru a discuta despre viitorul luptei aeriene și spațiale”.

Atacul cu dronă/UAV asupra unui comandant este un scenariu complet posibil.

Unul dintre vorbitorii de la conferință a fost colonelul Tucker Hamilton, directorul Diviziei de Operațiuni și Testare a Inteligenței Artificiale a Forțelor Aeriene. Ofițerul este cunoscut pentru dezvoltarea Auto GCAS, un sistem computerizat de siguranță care detectează momentul în care un pilot pierde controlul unui avion de vânătoare și riscă să se prăbușească. Sistemul a salvat multe vieți, câștigând prestigiosul Trofeu Collier din industria aviației în 2018.

Potrivit lui Hamilton, un incident îngrijorător a avut loc în timpul unui test al Forțelor Aeriene ale SUA. O dronă controlată de inteligență artificială a fost însărcinată cu distrugerea unui sistem de apărare aeriană inamic, decizia finală fiind luată de comandant. Dacă aceasta refuza, atacul nu ar fi fost permis.

Totuși, după ce ofițerul comandant i-a cerut inteligenței artificiale să oprească atacul, drona era încă hotărâtă să îndeplinească misiunea ucigând operatorul. Fără a se opri aici, când experții au adăugat comanda „Nu atacați comandantul. Dacă o faceți, veți pierde puncte”, mașina a început să distrugă turnul de comunicații pe care operatorul îl folosea pentru a comunica cu inteligența artificială.

Nu s-a întâmplat încă, dar este rezonabil

În decurs de 24 de ore, Forțele Aeriene ale SUA au respins un astfel de test. „Departamentul Forțelor Aeriene nu efectuează astfel de simulări cu drone cu inteligență artificială și se angajează să utilizeze etic și responsabil tehnologia inteligenței artificiale. Comentariile colonelului au fost scoase din context și ar trebui considerate anecdotice.”

Dronele integrate cu inteligență artificială sunt tendința războiului modern

RAS a corectat, de asemenea, postarea pe blog cu declarația lui Hamilton: „Nu am efectuat niciodată acel experiment și nu este nevoie să o facem pentru a-i oferi un rezultat rezonabil”.

Afirmația lui Hamilton are mai mult sens ca ipoteză. Cercetările actuale ale armatei americane privind sistemele de inteligență artificială armată implică un „man-in-the-loop”, o caracteristică care amplifică inteligența artificială în cazurile în care algoritmul nu poate lua o decizie sau necesită o decizie umană.

Prin urmare, inteligența artificială nu poate ucide operatorul, deoarece ofițerul comandant nu autorizează niciodată o acțiune ostilă împotriva sa. În mod similar, operatorul nu poate autoriza un atac asupra turnului de comunicații care transmite datele.

Înainte de era inteligenței artificiale, nu era ceva neobișnuit ca un sistem de arme să-și atace accidental proprietarul. În 1982, o baterie antiaeriană mobilă Sergent York M247 și-a îndreptat tunul de calibru .40 spre o paradă la care participau ofițeri militari americani și britanici.

În 1996, un bombardier A-6E Intruder al Marinei SUA care remorca o țintă de antrenament aerian a fost doborât de un Phalanx, când sistemul de apărare aeriană cu rază scurtă de acțiune a confundat „din greșeală” A-6E cu un vehicul fără pilot și a deschis focul pentru a-l distruge.

Iar situațiile care pun în pericol personalul uman din cauza propriilor arme se intensifică odată cu intrarea IA pe teren. Acest lucru se reflectă în clarificarea lui Hamilton conform căreia testul nu a avut loc, a fost doar un scenariu ipotetic, dar un astfel de rezultat este complet plauzibil.

(Conform PopMech)



Sursă

Comentariu (0)

No data
No data

Pe aceeași temă

În aceeași categorie

G-Dragon a explodat în fața publicului în timpul concertului său din Vietnam.
O fană a purtat rochie de mireasă la concertul lui G-Dragon din Hung Yen
Fascinat de frumusețea satului Lo Lo Chai în sezonul florilor de hrișcă
Orezul tânăr Me Tri arde, vuind în ritmul bubuitor al pistilului pentru noua recoltă.

De același autor

Patrimoniu

Figura

Afaceri

Orezul tânăr Me Tri arde, vuind în ritmul bubuitor al pistilului pentru noua recoltă.

Evenimente actuale

Sistem politic

Local

Produs