OpenAI'daki kıdemli bir araştırmacıya göre dünya , yapay genel zekaya (AGI) veya yapay zekanın insan beyni kadar akıllı olduğu noktaya hazır değil.
Genel yapay zeka bir risk midir?
Araştırmacılar yıllardır, yapay sistemlerin insanlar kadar iyi çeşitli görevleri yerine getirebileceği yapay genel zekanın (YGZ) ortaya çıkışı hakkında spekülasyonlar yapıyorlar. Birçok kişi, bilgisayarların insanların hayal bile edemeyeceği şekillerde çalışmasına olanak sağlayabileceği için, bu durumun ortaya çıkışını varoluşsal bir risk olarak görüyor.
Miles Brindage'e göre dünya yapay genel zeka (AGI) çağına hazır değil.
Şimdi, ChatGPT geliştiricisi OpenAI'nin AGI'ye hazır olmasını sağlamakla görevli kişi, ne dünyanın ne de şirketin bir sonraki adıma "hazır" olmadığını kabul ediyor. Miles Brundage, "OpenAI'nin AGI hazırlığı konusunda kıdemli danışmanı" olarak görev yapmış, ancak şirket bu hafta grubu dağıttığı için ayrıldığını duyurmuştu.
"Ne OpenAI ne de diğer öncü laboratuvarlar (AGI'ye) hazır değil, dünya da öyle. Açıkçası, bunun OpenAI liderleri arasında tartışmalı bir açıklama olduğunu düşünmüyorum, daha ziyade şirketin ve dünyanın doğru zamanda hazır olup olmadığı sorusu," dedi Brundage. Brundage, şirketin yapay zeka güvenliği girişimlerini şekillendirmeye altı yıl boyunca yardımcı oldu.
Brundage'ın ayrılışı, OpenAI'nin güvenlik ekiplerinden gelen bir dizi önemli ayrılışın sonuncusu oldu. Tanınmış bir araştırmacı olan Jan Leike, "güvenlik kültürü ve süreçleri, parlak ürünler karşısında ikinci planda kaldı" dedikten sonra ayrıldı. Kurucu ortak Ilya Sutskever da güvenli yapay zeka (AI) geliştirmeye odaklanan kendi yapay zeka girişimini kurmak için ayrıldı.
Brundage'in "AGI Readiness" grubunu dağıtması, şirketin uzun vadeli yapay zeka risklerini azaltmaya adanmış "Superalignment" grubunu dağıtmasından sadece birkaç ay sonra gerçekleşti ve bu durum OpenAI'nin orijinal misyonu ile ticari hedefleri arasındaki gerilimi ortaya çıkardı.
Kâr baskısı OpenAI'yi güvenli yoldan uzaklaştırıyor
OpenAI'nin, iki yıl içinde kâr amacı gütmeyen bir şirketten kâr amacı güden bir şirkete dönüşme baskısı altında olduğu bildiriliyor; aksi takdirde, son 6,6 milyar dolarlık yatırım turundan elde ettiği fonu kaybetme riskiyle karşı karşıya kalacak. Ticarileşmeye doğru bu yönelim, OpenAI'nin kâr amacı güden bölümünü ilk kurduğu 2019 yılından beri çekincelerini dile getiren Brundage için uzun zamandır bir endişe kaynağı.
OpenAI CEO'su Sam Altman, şirketin kâr elde etme baskısı nedeniyle "baş ağrısı" yaşıyor.
Brundage, ayrılışını açıklarken, önde gelen şirkette araştırma ve yayın yapma özgürlüğüne yönelik artan kısıtlamalara değindi. Yapay zeka politikası tartışmalarında, sektör önyargılarından ve çıkar çatışmalarından uzak, bağımsız bir sese ihtiyaç duyulduğunu vurguladı. OpenAI'nin iç hazırlıkları konusunda üst düzey yöneticilere danışmanlık yaptıktan sonra, artık kurum dışından küresel yapay zeka yönetimi üzerinde daha büyük bir etkiye sahip olabileceğine inanıyor.
Bu ayrılıklar aynı zamanda OpenAI içindeki daha derin bir kültürel uçurumu da yansıtıyor. Birçok araştırmacı yapay zeka araştırmalarını ilerletmek için bir araya geldi ve şimdi kendilerini giderek daha fazla ürün odaklı bir ortamda buluyorlar. Dahili kaynak tahsisi bir dönüm noktası haline geldi; raporlar, Leike'nin ekibinin dağılmadan önce güvenlik araştırmaları için bilgi işlem gücünden mahrum bırakıldığını gösteriyor.
OpenAI, son aylarda yapay zeka geliştirme planları ve güvenliği ne kadar ciddiye aldığı konusunda sorularla karşı karşıya kaldı. Güvenli yapay zekanın nasıl geliştirileceğini araştırmaya adanmış, kâr amacı gütmeyen bir kuruluş olarak kurulmasına rağmen, ChatGPT'nin başarısı, yeni teknolojiyi kâr amacıyla kullanma yönünde önemli yatırımlar ve baskılar getirdi.
[reklam_2]
Kaynak: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm







Yorum (0)