Google'ın ana şirketi Alphabet, yapay zeka ilkelerine dair yeni yayınlanan bir güncellemede, yapay zekayı gelecekte nasıl kullanmayı planladığını özetledi. En dikkat çekici olanı, yapay zekayı silahlar, gözetleme araçları veya "yaygın zarara yol açabilecek teknolojiler" üretmek için kullanmayacağına dair verdiği sözü geri çekmesiydi.
Google'ın Yapay Zeka Konusundaki Kırmızı Çizgileri
Google'ın yapay zeka kırmızı çizgisi terimi ilk olarak 2018 yılında, çalışanların ABD Savunma Bakanlığı ile iş birliğiyle geliştirilen yapay zeka projesi Maven'a karşı protesto düzenlemesiyle ortaya çıktı. O dönemde 4.000'den fazla Google çalışanı, projeyi sonlandırmak ve şirketin asla "savaş için teknoloji üretmemesini" talep etmek için bir dilekçe imzaladı.
Google, Pentagon için yapay zeka araçları geliştirme sözleşmesini yenilemedi. Şirket ayrıca, uluslararası kabul görmüş normları ihlal eden, gözetleme amacıyla bilgi toplayan veya kullanan silahlar ve teknolojiler de dahil olmak üzere yapay zekanın "uygun olmayan uygulamalarının" da Google tarafından kullanılmayacağını belirterek kırmızı çizgi çekti. Kamuoyuna zarar veren veya verme potansiyeli olan ya da yaygın olarak kabul görmüş uluslararası hukuk ve insan hakları ilkelerini ihlal eden teknolojiler de kullanılmayacaktı.
iPhone'daki bazı Google uygulamaları
Yapay zekanın silahlarla sınırlandırılması kararı, Google'ın Amazon ve Microsoft gibi diğer teknoloji devlerinin imzaladığı askeri anlaşmalara katılmasını engelledi.
Ancak yapay zeka yarışındaki bu kadar büyük değişimler karşısında Google, verdiği sözü geri çekme kararı aldı. Bu durum, yalnızca Google içinde değil, aynı zamanda Silikon Vadisi'ndeki teknoloji şirketlerinin savunma sanayisinde önemli bir değişime işaret ediyor.
Google dahili olarak bölünmüş durumda
Business Insider'a göre, yapay zeka ilkeleri ve etiğiyle ilgili güncelleme, Google çalışanlarından büyük tepki aldı. Çalışanlar, şirket içi mesaj panolarında hayal kırıklıklarını dile getirdiler. CEO Sundar Pichai'nin Google arama motoruna "nasıl silah tedarikçisi olunur?" sorusunu sorduğunu gösteren bir görsel büyük ilgi gördü.
Başka bir çalışan, "Silah ve gözetleme için yapay zeka yasağını kaldıran biz miyiz?" diye bir paylaşım yaptı. Şirketin 180.000'den fazla çalışanı var. Google'ın ABD hükümeti ve askeri ve savunma müşterileriyle daha yakın çalışma kararını destekleyen sesler hâlâ olabilir.
Google'ın mantığı
Google sözcüsü, "Yapay Zeka vaadinin" geri çekilmesine ilişkin yorum talebine hemen yanıt vermedi. Ancak Yapay Zeka Başkanı Demis Hassabis, yönergelerin değişen bir dünyada evrildiğini ve Yapay Zeka'nın "ulusal güvenliği koruyacağını" söyledi.
Hassabis ve Google'ın Teknoloji ve Toplum Kıdemli Başkan Yardımcısı James Manyika, şirket blog yazısında, yapay zeka alanında küresel liderlik rekabetinin yoğunlaştığını belirterek, Google'ın yapay zekanın özgürlük, eşitlik ve insan haklarına saygı ilkelerine göre yönlendirilmesi gerektiğine inandığını söyledi.
Şirketlerin, hükümetlerin ve kuruluşların değerleri paylaştığına ve insanları koruyabilen, küresel büyümeyi yönlendirebilen ve ulusal güvenliği destekleyebilen yapay zeka yaratmak için birlikte çalışmaları gerektiğine inanıyoruz" diye eklediler.
İki Google yöneticisi, milyarlarca insanın günlük yaşamlarında yapay zeka kullandığını söyledi. Yapay zeka, sayısız kuruluş ve bireyin uygulama geliştirmek için kullandığı bir platform olan genel amaçlı bir teknoloji haline geldi. Yapay zeka, laboratuvardaki niş bir araştırma konusu olmaktan çıkıp cep telefonları ve internet gibi her yerde bulunan bir teknolojiye dönüştü. Bu nedenle, Google'ın 2018 tarihli "Yapay Zeka Yemini"nin buna göre güncellenmesi gerekiyor.
Alphabet, önümüzdeki yıl büyük ölçüde yapay zeka yetenekleri ve altyapısı oluşturmak için 75 milyar dolar harcamayı planladığını söyledi.
[reklam_2]
Kaynak: https://thanhnien.vn/google-rut-lai-loi-hua-khong-dung-ai-cho-quan-su-185250206161804981.htm
Yorum (0)