Yapay zeka katil robotlarının kullanımının karmaşık tablosu
Yapay zekanın silah sistemlerini kontrol etmesine izin vermek, hedeflerin insan müdahalesi olmadan tespit edilip, saldırıya uğrayıp yok edilebileceği anlamına gelebilir. Bu durum ciddi yasal ve etik soruları gündeme getirir.
Durumun vahametini vurgulayan Avusturya Dışişleri Bakanı Alexander Schallenberg, "Bu, bizim neslimizin Oppenheimer Anı'dır" dedi.
Yapay zeka kullanan robotlar ve silahlar birçok ülkenin ordularında yaygın olarak kullanılmaya başlandı. Fotoğraf: Forbes
Gerçekten de, insansız hava araçları ve yapay zekânın (YZ) dünya çapında ordular tarafından yaygın olarak kullanılmaya başlanmasıyla birlikte, "cin şişeden ne kadar kaçabildi" sorusu acil bir soru haline geldi.
GlobalData savunma analisti Wilson Jones, "Rusya ve Ukrayna'nın modern çatışmalarda insansız hava araçlarını kullanması, ABD'nin Afganistan ve Pakistan'daki hedefli saldırı operasyonlarında insansız hava araçlarını kullanması ve geçtiğimiz ay ortaya çıktığı üzere İsrail'in Lavender programının bir parçası olarak kullanılması, yapay zekanın bilgi işleme yeteneklerinin dünya orduları tarafından saldırı güçlerini artırmak için nasıl aktif olarak kullanıldığını gösteriyor" dedi.
Londra merkezli Savaş Araştırmacı Gazetecilik Ofisi'nin araştırmaları, İsrail ordusunun Lavender yapay zeka sisteminin Hamas bağlantılı kişileri tespit etmede %90 doğruluk oranına sahip olduğunu, yani %10'unun Hamas bağlantılı olmadığını ortaya koydu. Bu durum, yapay zekanın tespit ve karar alma yetenekleri nedeniyle sivil ölümlerine yol açtı.
Küresel güvenliğe yönelik bir tehdit
Yapay zekanın bu şekilde kullanılması, silah sistemlerinde teknolojinin yönetilmesi gerekliliğini vurgulamaktadır.
Stockholm Uluslararası Barış Araştırma Enstitüsü'nün (SIPRI) Yapay Zeka Yönetimi programında kıdemli araştırma görevlisi olan Dr. Alexander Blanchard, Army Technology'ye yaptığı açıklamada, "Yapay zekanın silah sistemlerinde, özellikle hedefleme amacıyla kullanılması, bizim -insanların- savaşla olan ilişkimiz ve daha spesifik olarak silahlı çatışmalarda şiddeti nasıl kullanabileceğimiz konusundaki varsayımlarımız hakkında temel soruları gündeme getiriyor." dedi.
Yapay zeka sistemleri, kaotik ortamlarda kullanıldığında öngörülemez davranışlar sergileyebilir ve hedefleri doğru bir şekilde tespit edemeyebilir. Fotoğraf: MES
Dr. Blanchard, "Yapay zeka, ordunun hedefleri seçme ve onlara güç uygulama biçimini değiştiriyor mu? Bu değişiklikler, bir dizi yasal, etik ve operasyonel soruyu gündeme getiriyor. En büyük endişeler insani," diye ekledi.
SIPRI uzmanı, "Birçok kişi, otonom sistemlerin nasıl tasarlanıp kullanıldığına bağlı olarak, sivilleri ve uluslararası hukuk tarafından korunan diğer kişileri daha fazla zarar görme riskine sokabileceğinden endişe duyuyor," diye açıkladı. "Bunun nedeni, özellikle kaotik ortamlarda kullanıldığında yapay zeka sistemlerinin öngörülemez bir şekilde çalışabilmesi ve hedefleri doğru bir şekilde belirleyip sivillere saldıramaması veya çatışmada olmayan savaşçıları tespit edememesi olabilir."
Konuya ilişkin açıklama yapan GlobalData savunma analisti Wilson Jones, suçluluğun nasıl belirleneceği konusunun tartışmalı olabileceğini belirtti.
Bay Jones, "Mevcut savaş hukukunda komuta sorumluluğu kavramı vardır," dedi. "Bu, bir subayın, generalin veya başka bir liderin, emri altındaki birliklerin eylemlerinden yasal olarak sorumlu olduğu anlamına gelir. Birlikler savaş suçları işlerse, emir vermemiş olsalar bile subay sorumludur; savaş suçlarını önlemek için mümkün olan her şeyi yaptıklarını ispat etme yükümlülüğü onlardadır."
"Yapay zeka sistemleri söz konusu olduğunda işler karmaşıklaşıyor. Bir BT teknisyeni mi sorumlu? Bir sistem tasarımcısı mı? Bu net değil. Net değilse, aktörler eylemlerinin mevcut yasalar tarafından korunmadığını düşünürse ahlaki bir tehlike yaratır," diye vurguladı Bay Jones.
Bir ABD askeri robot köpekle devriye geziyor. Fotoğraf: Forbes
Silah Kontrol Sözleşmeleri Birçok önemli uluslararası anlaşma, belirli silah kullanımlarını kısıtlamakta ve düzenlemektedir. Kimyasal silah yasakları, nükleer silahların yayılmasını önleme anlaşmaları ve savaşan taraflara gereksiz veya haksız acılara neden olduğu veya sivilleri ayrım gözetmeksizin etkilediği düşünülen belirli silahların kullanımını yasaklayan veya sınırlayan Belirli Konvansiyonel Silahlar Sözleşmesi bulunmaktadır.
Savunma analisti Wilson Jones, "Nükleer silah kontrolü, onlarca yıllık uluslararası iş birliği ve ardından gelen anlaşmaların yürürlüğe girmesini gerektirdi," diye açıklıyor. "O zaman bile, 1990'lara kadar atmosferik testlere devam ettik. Nükleer silahsızlanmanın başarılı olmasının en önemli nedenlerinden biri, iki kutuplu dünya düzeninde Amerika Birleşik Devletleri ve Sovyetler Birliği arasındaki iş birliğiydi. Bu artık mevcut değil ve yapay zekayı yaratan teknoloji, birçok ülke için nükleer enerjiden daha erişilebilir."
"Bağlayıcı bir anlaşma, ilgili tüm aktörleri askeri güçlerini artıracak bir araç kullanmama konusunda anlaşmaya varmaya ikna etmelidir. Bu pek işe yaramaz çünkü yapay zeka, askeri etkinliği minimum maliyetle artırabilir."
Güncel jeopolitik görünüm
Birleşmiş Milletler ülkeleri yapay zekanın sorumlu bir şekilde askeri olarak kullanılmasının gerekliliğini kabul etmiş olsa da, hâlâ yapılması gereken çok iş var.
GlobalData baş analisti Laura Petrone, Army Technology'ye verdiği demeçte, "Net bir düzenleyici çerçeve olmadan, bu iddialar büyük ölçüde hayal ürünü olmaya devam ediyor," dedi. "Bazı ülkelerin, özellikle mevcut jeopolitik ortamda, iç savunma ve ulusal güvenlik konularında karar verirken kendi egemenliklerini korumak istemeleri şaşırtıcı değil."
Petrone, AB Yapay Zeka Yasası'nın yapay zeka sistemleri için bazı gereklilikler ortaya koyduğunu ancak askeri amaçlı yapay zeka sistemlerini kapsamadığını sözlerine ekledi.
"Bu istisnaya rağmen, Yapay Zeka Yasası'nın, yapay zeka uygulamaları için uzun zamandır beklenen bir çerçeve oluşturma yolunda önemli bir çaba olduğunu ve gelecekte ilgili standartların bir dereceye kadar tekdüzeleşmesine yol açabileceğini düşünüyorum," diye yorumladı. "Bu tekdüzelik, askeri alanda yapay zeka için de önemli olacak."
Nguyen Khanh
[reklam_2]
Kaynak: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
Yorum (0)