Geçtiğimiz hafta Pekin'de bir araya gelen uluslararası uzmanlardan oluşan bir grup, yapay zeka geliştirmede biyolojik silah üretimi ve siber saldırılar gibi "kırmızı çizgiler" belirledi.
Toplantıdan günler sonra yapılan açıklamada akademisyenler, "insanlığın yaşam süresi boyunca karşılaşabileceği felaket niteliğindeki hatta varoluşsal riskleri önlemek için yapay zeka güvenliğine yönelik ortak bir yaklaşıma ihtiyaç duyulduğu" uyarısında bulundu.
Açıklamada, "Soğuk Savaş'ın zirvesinde, uluslararası hükümet ve bilimsel iş birliği nükleer felaketin önlenmesine yardımcı oldu. İnsanlık, benzeri görülmemiş bir teknolojiden kaynaklanabilecek felaketi önlemek için bir kez daha birlikte çalışmalıdır." ifadeleri yer aldı.
Pekin'deki Uluslararası Yapay Zeka Güvenliği Diyaloğu uzmanları, yapay zeka gelişiminde "kırmızı çizgiler" belirledi. Fotoğraf: FT
İmzacılar arasında yapay zekanın "babaları" olarak tanımlanan Geoffrey Hinton ve Yoshua Bengio, Kaliforniya Üniversitesi'nde bilgisayar bilimi profesörü olan Stuart Russell ve Çin'in en önde gelen bilgisayar bilimcilerinden Andrew Yao da yer alıyor.
Açıklama, geçen hafta Pekin'de düzenlenen Uluslararası Yapay Zeka Güvenliği Diyaloğu'nun ardından geldi. Toplantıya Çin hükümet yetkilileri katılarak forum ve sonuçlarını onayladı.
ABD Başkanı Joe Biden ve Çin Devlet Başkanı Xi Jinping, geçen yıl Kasım ayında bir araya gelerek yapay zeka güvenliğini görüşmüş ve bu konuda bir diyalog kurulması konusunda anlaşmışlardı. Önde gelen küresel yapay zeka şirketleri de son aylarda Çinli yapay zeka uzmanlarıyla özel görüşmelerde bulundu.
Kasım 2023'te, Çin de dahil olmak üzere 28 ülke ve önde gelen yapay zeka şirketleri, İngiltere Maliye Bakanı Rishi Sunak'ın yapay zeka güvenliği zirvesi sırasında gelişmiş yapay zekadan kaynaklanan varoluşsal riskleri ele almak için birlikte çalışma konusunda geniş kapsamlı bir taahhütte bulundu.
Geçtiğimiz hafta Pekin'de uzmanlar, insanlara eşit veya üstün olan "Yapay Genel Zeka - AGI" veya AI sistemlerinin geliştirilmesiyle ilişkili tehditleri görüştüler.
Bengio, "Tartışmanın temel odağı, hiçbir güçlü yapay zeka sisteminin aşmaması gereken kırmızı çizgiler ve dünya genelindeki hükümetlerin yapay zekanın geliştirilmesi ve konuşlandırılması sırasında uygulaması gereken kırmızı çizgilerdi" dedi.
Bu kırmızı çizgiler, "hiçbir yapay zeka sisteminin açık insan onayı ve desteği olmadan kendini kopyalayamayacağını veya geliştiremeyeceğini" veya "gücünü ve etkisini gereksiz yere artıracak eylemlerde bulunamayacağını" garanti altına alacaktır.
Bilim insanları, hiçbir sistemin "aktörlerin kitle imha silahları tasarlama, biyolojik veya kimyasal silahlar sözleşmesini ihlal etme yeteneğini önemli ölçüde artırmayacağını" veya "ciddi mali kayba veya eşdeğer zarara yol açan siber saldırıları otomatik olarak gerçekleştiremeyeceğini" ekledi.
Hoang Hai (FT'ye göre)
[reklam_2]
Kaynak






Yorum (0)