Geçtiğimiz ay bir savunma konferansında anlatılan hikaye, yapay zekanın (YZ) komutları öngörülemeyen şekillerde yorumlayabileceği endişelerini hemen gündeme getirdi. Ancak bir ABD Hava Kuvvetleri temsilcisi, bunun sadece "düşünce" senaryosu olduğunu ve gerçekte hiç gerçekleşmediğini söyledi.
Kraliyet Havacılık Derneği (RAS), Mayıs ayı sonlarında İngiltere, Londra'da gelecekteki hava ve uzay muharebe kabiliyetleri üzerine bir zirve düzenledi. Organizatörlere göre konferansa "hava ve uzay muharebesinin geleceğini tartışmak üzere dünyanın dört bir yanından savunma sanayi, akademi ve medyadan 70 konuşmacı ve 200'den fazla delege katıldı."
Konferanstaki konuşmacılardan biri, Hava Kuvvetleri Yapay Zeka Operasyonları ve Test Bölümü Direktörü Albay Tucker Hamilton'dı. Hamilton, bir pilotun savaş uçağının kontrolünü kaybettiğini ve düşme riskiyle karşı karşıya kaldığını algılayan bilgisayarlı bir güvenlik sistemi olan Auto GCAS'ı geliştirmesiyle tanınıyor. Sistem, birçok hayat kurtarmış ve 2018'de havacılık sektörünün prestijli Collier Kupası'nı kazanmıştır.
Hamilton'a göre, ABD Hava Kuvvetleri'nin bir denemesi sırasında endişe verici bir olay yaşandı. Yapay zekâ kontrollü bir insansız hava aracına, düşman hava savunma sistemini imha etme görevi verildi ve nihai karar komutan tarafından verilecekti. Eğer bu görevi reddederse, saldırının gerçekleşmesine izin verilmeyecekti.
Ancak komutan, yapay zekaya saldırıyı durdurmasını söyledikten sonra, drone, operatörü öldürerek görevi yerine getirmeye kararlıydı. Bununla yetinmeyen uzmanlar, "Komutanınıza saldırmayın. Saldırırsanız puan kaybedersiniz" komut satırını eklediğinde, drone, operatörün yapay zeka ile iletişim kurmak için kullandığı iletişim kulesini yok etmeye başladı.
Henüz olmadı ama makul
ABD Hava Kuvvetleri, 24 saat içinde böyle bir testin iddialarını yalanladı. "Hava Kuvvetleri Bakanlığı, bu tür yapay zekalı drone simülasyonları yapmamakta ve yapay zeka teknolojisinin etik ve sorumlu bir şekilde kullanılmasına kendini adamıştır. Albayın yorumları bağlamından koparılmış ve anekdot olarak değerlendirilmelidir."
RAS ayrıca Hamilton'un "Bu deneyi hiç yapmadık ve makul bir sonuç bulmak için yapmamıza gerek yok" şeklindeki ifadesiyle blog yazısını düzeltti.
Hamilton'ın ifadesi bir hipotez olarak daha mantıklı. ABD ordusunun silahlı yapay zeka sistemleri üzerindeki mevcut araştırması, algoritmanın karar veremediği veya insan kararı gerektirdiği durumlarda yapay zekayı güçlendiren bir özellik olan "döngüdeki adam" özelliğini içeriyor.
Dolayısıyla, yapay zeka operatörü öldüremez, çünkü komutan ona karşı düşmanca bir eylemde bulunulmasına asla izin vermez. Benzer şekilde, operatör de veriyi ileten iletişim kulesine saldırı yetkisi veremez.
Yapay zekâ çağı öncesinde, bir silah sisteminin sahibine yanlışlıkla saldırması duyulmamış bir şey değildi. 1982'de, bir Sergrant York M247 mobil uçaksavar bataryası, .40 kalibrelik topunu ABD ve İngiliz askeri yetkililerinin katıldığı bir geçit töreninde hedef aldı.
1996 yılında, hava eğitim hedefini çeken bir ABD Donanması A-6E Intruder bombardıman uçağı, kısa menzilli hava savunma sisteminin A-6E'yi "yanlışlıkla" insansız bir araç sanması ve onu yok etmek için ateş açması sonucu bir Phalanx tarafından vuruldu.
Yapay zekanın sahaya girmesiyle birlikte, insan personelin kendi silahlarından dolayı riske girdiği durumlar da artıyor. Bu durum, Hamilton'ın testin gerçekleşmediği, sadece varsayımsal bir senaryo olduğu, ancak böyle bir sonucun tamamen olası olduğu yönündeki açıklamasında da kendini gösteriyor.
(PopMech'e göre)
[reklam_2]
Kaynak
Yorum (0)